« トランジスタ技術2024年12月号の特集はChatGPT電子回路。期待していたのは電子回路設計だったがそれはまだいまいち。でも2000円台で買えるエッジAI向けNPU搭載マイコンやラズパイでローカルLLMを動かしたりAPIをたたいたりと面白そう。久々にマイコンボード触りたくなった。 | トップページ | 「グラディエーターII 英雄を呼ぶ声」をIMAXレーザー/GTで観てきた。すごかった!格闘シーンはもちろん、動物(あの猿は何?)や水上での闘いなどどれも迫力あり、最初の方に出た言葉を終盤また使うとき、最後の言葉は泣く…エンドクレジットで大工さんがいっぱいいたのは納得。 »

2024年11月15日 (金)

高周波エンジニアのためのAI・機械学習入門(17)パッチアンテナ設計モジュールをPythonで作ったので、パッチ寸法(幅、長さ)、基板厚み、共振周波数を与えて比誘電率をKeras3.0を用いたディープラーニング(DNN)による回帰で予測する。

さて前回は学習データを10000個作った。これをKeras3.0でディープラーニング(DNN, Deep Neural Networks)で回帰してみよう。パッチ寸法(幅、長さ)、基板厚み、共振周波数を与えて比誘電率を予測するもので、こういうのは簡易誘電率測定としても使える。

まずはデータを読み込む。


import numpy as np
import matplotlib.pyplot as plt
from sklearn.model_selection import train_test_split
import os
os.environ["KERAS_BACKEND"] = "tensorflow"
import keras

data_label = np.load("patchantenna.npz")
data = data_label["data"]
label = data_label["label"]
x_train, x_test, y_train, y_test = train_test_split(data, label, test_size=0.3, random_state=0)

次にモデルの設定を行う、64ユニットの層を3層重ねている。shapeはパッチ幅、パッチ長さ、基板厚み、共振周波数なので4つ。最終出力は比誘電率1つなので1つ。


#正規化
normalizer = keras.layers.Normalization()
normalizer.adapt(x_train)

# Functional APIでDense層を3層にしたDNNを設定
hidden_dim = 64
inputs = keras.Input(shape=(4,))
x = normalizer(inputs)
x = keras.layers.Dense(hidden_dim, activation="relu")(x)
x = keras.layers.Dense(hidden_dim, activation="relu")(x)
x = keras.layers.Dense(hidden_dim, activation="relu")(x)
outputs = keras.layers.Dense(1)(x)

# モデルの設定
model = keras.Model(inputs=inputs, outputs=outputs)
model.compile(loss = 'mean_squared_error' ,optimizer=keras.optimizers.Adam())

ここから学習。100エポックで十分。


batch_size = 32
epochs = 100

keras.utils.set_random_seed(1)
history = model.fit(
    x_train,
    y_train,
    batch_size=batch_size,
    epochs=epochs,
    validation_split=0.15,
)
y_pred = model.predict(x_test)
metric = keras.metrics.R2Score()
metric.update_state(y_test, y_pred)
result = metric.result()
print(result)
error = np.abs((y_test - y_pred)/y_test*100)
print(error.mean(axis=0))

これで

tf.Tensor(0.9996377, shape=(), dtype=float32)
[0.58174208]

と出力されるのでR2Score99.96%、平均0.58%の誤差であるとわかった。

図示してみる。


legend = ["er"]
fig, ax = plt.subplots(1, 2, figsize=(12,6))

maxvalue = y_pred.max()
ax[0].scatter(y_pred, y_test, c="r", s=5)
ax[0].plot([0,maxvalue], [0,maxvalue], "--", c="black")
ax[0].set_xlabel("推定した値", fontname='MS Gothic')
ax[0].set_ylabel("実際の値", fontname='MS Gothic')
ax[0].set_xlim(0, maxvalue)
ax[0].set_ylim(0, maxvalue)
ax[0].grid()
ax[0].legend([legend[0] + f" 平均誤差{error.mean():.2f}%"], prop={"family":"MS Gothic"})
ax[1].hist(error, bins = 100)
ax[1].set_xlabel("誤差[%]", fontname='MS Gothic')
ax[1].set_ylabel("頻度", fontname='MS Gothic')
ax[1].grid()
fig.tight_layout()
plt.show()

Msadnn

まあこれくらい相関とれていればいいだろう。比誘電率高いところでちょっとばらついていて、最大5%くらいの誤差にはなってそうだが。

 

 

« トランジスタ技術2024年12月号の特集はChatGPT電子回路。期待していたのは電子回路設計だったがそれはまだいまいち。でも2000円台で買えるエッジAI向けNPU搭載マイコンやラズパイでローカルLLMを動かしたりAPIをたたいたりと面白そう。久々にマイコンボード触りたくなった。 | トップページ | 「グラディエーターII 英雄を呼ぶ声」をIMAXレーザー/GTで観てきた。すごかった!格闘シーンはもちろん、動物(あの猿は何?)や水上での闘いなどどれも迫力あり、最初の方に出た言葉を終盤また使うとき、最後の言葉は泣く…エンドクレジットで大工さんがいっぱいいたのは納得。 »

パソコン・インターネット」カテゴリの記事

学問・資格」カテゴリの記事

日記・コラム・つぶやき」カテゴリの記事

コメント

コメントを書く

(ウェブ上には掲載しません)

« トランジスタ技術2024年12月号の特集はChatGPT電子回路。期待していたのは電子回路設計だったがそれはまだいまいち。でも2000円台で買えるエッジAI向けNPU搭載マイコンやラズパイでローカルLLMを動かしたりAPIをたたいたりと面白そう。久々にマイコンボード触りたくなった。 | トップページ | 「グラディエーターII 英雄を呼ぶ声」をIMAXレーザー/GTで観てきた。すごかった!格闘シーンはもちろん、動物(あの猿は何?)や水上での闘いなどどれも迫力あり、最初の方に出た言葉を終盤また使うとき、最後の言葉は泣く…エンドクレジットで大工さんがいっぱいいたのは納得。 »

最近の記事

最近のコメント

2024年12月
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31        
フォト
無料ブログはココログ