« 高周波・RFニュース 2024年7月22日 Mini-Circuitsの36GHzまでのトリプラー、CMTのVNAでミキサ測定ホワイトペーパー、Intelのオリンピック用AtheleteGPT、Samsung Galaxy Watch 7分解(Exynos W1000)、I-PEXの細線同軸コネクタがカメラモジュールに採用、NVIDIAの学習コースなど | トップページ | 高周波・RFニュース 2024年7月23日 Samsung Galaxy Z Flip6分解ビデオでミリ波AiP確認、SEMCOの車載MLCC (1210 inch X7R 22㎌ 35V)、Nordic semiconductorがスマート農業のIoT4gに参加、マッキンゼーが6Gの収益化に疑問、OPアンプのモデリング、Apple R1チップ解説 »

2024年7月22日 (月)

Keras 3.0になってマルチバックエンド(TensorFlow,JAX, PyTorch)が使えるようになったので速度を比較してみる(3) MNIST(手書き数字認識)でPythonでRNN(再帰型ニューラルネットワーク)のBidirectional LSTMを試す。やっぱりTensorFlowが一番速く、JAX、PyTorchの順。

Kerasが3.0になってまた独立してマルチバックエンドTensorFlow, jax, PyTorch)が使えるようになっていたということで

https://keras.io/keras_3/

前々回はDNN、前回はCNN(畳み込みニューラルネットワーク)をやってみた。

Keras 3.0になってマルチバックエンド(TensorFlow,jax, PyTorch)が使えるようになったので速度を比較してみる(1) MNIST(手書き数字認識)でPythonコード書いてDNNでやってみる。TensorFlowが一番速く、jax, PyTorchの順(CPUのみ使用の場合)。ちょっと意外。

Keras 3.0になってマルチバックエンド(TensorFlow,jax, PyTorch)が使えるようになったので速度を比較してみる(2) MNIST(手書き数字認識)でPythonでCNN(畳み込みニューラルネットワーク)でやってみる。TensorFlowが一番速く、PyTorch, JAXの順(CPUのみ使用の場合)。

 

今回はRNN(再帰型ニューラルネットワーク)のうち、Bidirectional LSTMを試してみる。

準備はこのような感じで、


import os
# os.environ["KERAS_BACKEND"] = "tensorflow"
# os.environ["KERAS_BACKEND"] = "jax"
os.environ["KERAS_BACKEND"] = "torch"
import keras
# データはMNIST
(x_train, y_train), (x_test, y_test) = keras.datasets.mnist.load_data()

x_train = x_train.astype("float32") / 255
x_test = x_test.astype("float32") / 255

# Functional APIでDense層+ドロップアウト層を3層にしたDNNを設定
hidden_dim = 500
inputs = keras.Input(shape=(28, 28))
x = keras.layers.Bidirectional(keras.layers.LSTM(50, return_sequences=True))(inputs)
x = keras.layers.Bidirectional(keras.layers.LSTM(50))(x)
outputs = keras.layers.Dense(10, activation="softmax")(x)

# モデルの設定
model = keras.Model(inputs=inputs, outputs=outputs)
model.compile(optimizer=keras.optimizers.Adam(), loss=keras.losses.SparseCategoricalCrossentropy(),    
            metrics=[keras.metrics.SparseCategoricalAccuracy(name="acc"),])

時間を測る学習部分のコード


batch_size = 128
epochs = 10

keras.utils.set_random_seed(1)
model.fit(
    x_train,
    y_train,
    batch_size=batch_size,
    epochs=epochs,
    validation_split=0.15,
)
score = model.evaluate(x_test, y_test, verbose=0)
print(score)

結果は

TensorFlow

Kerastensorflowrnn

JAX

Kerasjaxrnn

PyTorch

Kerasjaxrnn

やっぱりTensorFlowが一番速い。

Kerasrnn

ということでCPUのみ使う場合、Keras3.0のバックエンドはTensorFlowにすればよさそう。

GPU使う場合は別途試す。

« 高周波・RFニュース 2024年7月22日 Mini-Circuitsの36GHzまでのトリプラー、CMTのVNAでミキサ測定ホワイトペーパー、Intelのオリンピック用AtheleteGPT、Samsung Galaxy Watch 7分解(Exynos W1000)、I-PEXの細線同軸コネクタがカメラモジュールに採用、NVIDIAの学習コースなど | トップページ | 高周波・RFニュース 2024年7月23日 Samsung Galaxy Z Flip6分解ビデオでミリ波AiP確認、SEMCOの車載MLCC (1210 inch X7R 22㎌ 35V)、Nordic semiconductorがスマート農業のIoT4gに参加、マッキンゼーが6Gの収益化に疑問、OPアンプのモデリング、Apple R1チップ解説 »

パソコン・インターネット」カテゴリの記事

学問・資格」カテゴリの記事

日記・コラム・つぶやき」カテゴリの記事

コメント

コメントを書く

(ウェブ上には掲載しません)

« 高周波・RFニュース 2024年7月22日 Mini-Circuitsの36GHzまでのトリプラー、CMTのVNAでミキサ測定ホワイトペーパー、Intelのオリンピック用AtheleteGPT、Samsung Galaxy Watch 7分解(Exynos W1000)、I-PEXの細線同軸コネクタがカメラモジュールに採用、NVIDIAの学習コースなど | トップページ | 高周波・RFニュース 2024年7月23日 Samsung Galaxy Z Flip6分解ビデオでミリ波AiP確認、SEMCOの車載MLCC (1210 inch X7R 22㎌ 35V)、Nordic semiconductorがスマート農業のIoT4gに参加、マッキンゼーが6Gの収益化に疑問、OPアンプのモデリング、Apple R1チップ解説 »

最近の記事

2025年2月
            1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28  

最近のコメント

無料ブログはココログ
フォト