高周波エンジニアのためのAI・機械学習入門(GPU編10)PythonとKeras3.0とscikit-rfを使ってディープラーニング(DNN)で同軸コネクタがついたマイクロストリップライン(誘電率、L、C、線幅、厚みを振った)のSパラメータからTDRを使わずに特性インピーダンスを予測する。
今回はこちらのCPU版のGPU対応編。
コードはこちら。
import os
os.environ["KERAS_BACKEND"] = "jax"
import keras
import jax
import numpy as np
import matplotlib.pyplot as plt
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
plt.rcParams['font.family'] = 'Noto Sans CJK JP'
from jax import config
config.update("jax_enable_x64", False)
data_label = np.load("tl_data3.npz")
data = data_label["data"]
label = data_label["label"]
x_train, x_test, y_train, y_test = train_test_split(data, label, test_size=0.3, random_state=0)
#正規化
scaler_y = StandardScaler()
y_train_f = scaler_y.fit_transform(y_train)
y_test_f = scaler_y.transform(y_test)
# Functional APIでDense層を3層にしたDNNを設定
hidden_dim = 200
inputs = keras.Input(shape=(200, 5))
x = keras.layers.Flatten()(inputs)
x = keras.layers.Dense(hidden_dim, activation="relu")(x)
x = keras.layers.LayerNormalization(epsilon=1.0e-6)(x)
x = keras.layers.Dense(hidden_dim, activation="relu")(x)
x = keras.layers.LayerNormalization(epsilon=1.0e-6)(x)
x = keras.layers.Dense(hidden_dim, activation="relu")(x)
x = keras.layers.LayerNormalization(epsilon=1.0e-6)(x)
x = keras.layers.Dense(hidden_dim, activation="relu")(x)
x = keras.layers.LayerNormalization(epsilon=1.0e-6)(x)
outputs = keras.layers.Dense(1)(x)
# モデルの設定
model = keras.Model(inputs=inputs, outputs=outputs)
model.compile(loss = 'mean_squared_error' ,optimizer=keras.optimizers.Adam())
batch_size = 128
epochs = 1000
keras.utils.set_random_seed(1)
history = model.fit(
x_train,
y_train_f,
batch_size=batch_size,
epochs=epochs,
validation_split=0.15,
)
y_pred_f = model.predict(x_test)
y_pred = scaler_y.inverse_transform(y_pred_f)
metric = keras.metrics.R2Score()
metric.update_state(y_test, y_pred)
result = metric.result()
print(result)
error = np.abs((y_test - y_pred)/y_test*100)
print(error.mean(axis=0))
legend = ["Z0"]
fig, ax = plt.subplots(1, 2, figsize=(12,6))
maxvalue = y_pred.max()
minvalue = y_pred.min()
ax[0].scatter(y_pred, y_test, c="r", s=5)
ax[0].plot([0,maxvalue], [0,maxvalue], "--", c="black")
ax[0].set_xlabel("推定した値")
ax[0].set_ylabel("実際の値")
ax[0].set_xlim(minvalue, maxvalue)
ax[0].set_ylim(minvalue, maxvalue)
ax[0].grid()
ax[0].legend([legend[0] + f" 平均誤差{error.mean():.2f}%"])
ax[1].hist(error, bins = 100)
ax[1].set_xlabel("誤差[%]")
ax[1].set_ylabel("頻度")
ax[1].grid()
fig.tight_layout()
plt.show()
|
結果はこちら。
ものすごくいい精度になっている。本当にこれはTDR置き換えられるな。
« 高周波・RFニュース 2025年2月6日 Texas InstrumentsがSilicon Labsを買収、JDIとKymetaが衛星通信用アンテナガラス基板の共同開発、Emersonの計測に特化したNI Nigel AI、TDKが200A垂直給電用μPOLモジュール量産、ATISがOpen Access Network Forum発足 | トップページ | 高周波・RFニュース 2026年2月7日 NGMNが5Gフレームワークのホワイトペーパー発行、TaoglasがAIを使ったアンテナリコメンデーションエンジン発表、SHFが100GHz 22dBゲインのアンプ発表、SiTimeがルネサスのタイミングビジネス取得、YoleのRF GaNレポート »
「パソコン・インターネット」カテゴリの記事
「学問・資格」カテゴリの記事
「日記・コラム・つぶやき」カテゴリの記事
« 高周波・RFニュース 2025年2月6日 Texas InstrumentsがSilicon Labsを買収、JDIとKymetaが衛星通信用アンテナガラス基板の共同開発、Emersonの計測に特化したNI Nigel AI、TDKが200A垂直給電用μPOLモジュール量産、ATISがOpen Access Network Forum発足 | トップページ | 高周波・RFニュース 2026年2月7日 NGMNが5Gフレームワークのホワイトペーパー発行、TaoglasがAIを使ったアンテナリコメンデーションエンジン発表、SHFが100GHz 22dBゲインのアンプ発表、SiTimeがルネサスのタイミングビジネス取得、YoleのRF GaNレポート »



コメント