« 2021年5月 | トップページ | 2021年7月 »
先日、集英社からしおりもらったが、
集英社のナツイチキャンペーンでマグネットタイプの猫しおりもらった。これは便利そう。
今日は新潮文庫。4つから選べるが、なんとなく涼しそうなソフトクリームを選ぶ。
マグネットとどっちを使おうかな、、、
冒頭の15分53秒ががYoutubeで観られるようになっていて、たまたま見たらこれめっちゃ面白そう、TENETの冒頭みたいだ、と思って観に行った。冒頭の期待以上に面白かった!
入場者プレゼントは???
セイラはすぐわかったがおじさんは誰、、、あ!ランバ・ラルだ!若い!THE ORIGINのシーンらしい。他の皆さんは何のシーンがあったのかな?
で、内容ですが、ファーストガンダム後、逆襲のシャアから12年、ということで私の見てた唯一のガンダムの話のその後ということでまさにツボだった。ブライトの息子か!大きくなって、、、という親戚の叔父さんのような感想からスタート。
クェスのこともあるので女性に弱い(というかもてる)のはいいが、本当にテロリストになってしまったんだな、、、タクシーの運転手の言葉が私の意見にも近いが、生い立ちから考えるとそうなっても不思議じゃないのか。
で何より戦闘シーンがかっこいい。最初の市街地での戦闘(軍の無茶苦茶さが際立つ)、Ξガンダムの登場(最近成層圏から落ちるのはやってるの?)からのペーネロペーとの戦闘シーンはすごい!コクピットのディスプレイもめちゃくちゃかっこいい。
飛んでるのはミノフスキー・フライト・ユニットがあるからだそうだ。どちらかというと今回はモビルアーマーの戦いぽかったが次回にロボット戦闘的なのがあるのだろうか、、、
次回、って本当に連続アニメの第一話終わり、って感じのところで終わる。確かに上映時間95分と聞いたとき短いな、と思ったら本当に第一話でいろいろ紹介した感じで終わってしまった。これは次も見なければ、、、というかもう一回戦闘シーン見たくなった。リピートするかも、、、
兵庫県出身の私には六甲、芦屋や阪急(この本の中では宝急)の駅がいろいろ出てきて懐かしかったり。
でもそんなことより真相。確かに思っていたのと全然違う!騙された!これは確かにだまされるわ、、、
あらすじは「六甲の山中にある、父の旧友の別荘に招かれた14歳の私は、その家の息子で同い年の一彦とともに向かった池のほとりで、不思議な少女・香と出会った。夏休みの宿題のスケッチ、ハイキング、育まれる淡い恋。」という青春小説の六甲山パートと、
それよりはるか以前、ある登場人物の過去のお話が挟まれるパートがあります。
が、その人物が誰か?というのが騙されるところ。これはわからないわ、、、
まあ、阪急・宝塚、というのがヒントではあるが、ミスリードっぽく、これはあの人に違いない、と思っては違ったりするところがたくさんある。なかなか面白かった。
あと解説で、お話にも出てくる人のモデルである小林一三さんがミステリ小説を書いていた話が出てきてびっくりします。
IEEE Microwave Magazineの特集はLow noise technique。
発振器や非線形ノイズも掲載されてますが、
https://ieeexplore.ieee.org/xpl/mostRecentIssue.jsp?punumber=6668
ノイズの測定の基礎、歴史が書かれている記事"A Brief Walk Through Noise: From Basic Concepts to Advanced Measurement Techniques"が参考になった。
ノイズの↓この辺からの起源も書かれています。
Microwave Journalの特集はRF GaNでした。
https://www.microwavejournal.com/publications/1/editions/286
最近とても流行っているが、それより個人的に面白いのはQorvoのUWBの記事(DecaWaveを買収して手に入れた)。
Exploring Ultra-Wideband Technology for Micro-Location-Based Services
なにが面白いかというと、
Qorvoと
Qorvo® Solutions Interoperable with Apple* U1 Chip for New Ultra-Wideband Enabled Experiences
NXPの
NXP’s Development Tools Enable New Ultra-Wideband Applications for iPhone and Apple Watch
UWBのチップが、AppleがWWDC2021でUWBをキーに使うことを発表した同日に
インターオペラビリティ(相互に互換に接続できる)ことを発表したこと。
これはUWBがこれから来るかもな、と思ったり。
今月は電子雑誌だけにしよう。
Desing007 Magazineの特集は、、、
http://design.iconnect007.com/landing/design/pcb-design-magazine?skin=design
ウィリアム・シャトナーが90歳になるのを記念して、なんと全く関係ない雑誌(P板の技術)なのに全部スタートレックをもじる!
これは日本の雑誌じゃ不可能だろうなあ。。。
ISCはこちら。
http://wayback.cecm.sfu.ca/projects/ISC/ISCmain.html
数字を入れると一番それにありそうな計算式を推定してくれる。3.141592ならπなど。
では6.142021を入れると?いろいろ出ますが一番簡単なのはこれか。
Roots of polynomials of 5th degree (coeffs: -9..9)
6142021828022163 = -6+5*x+5*x^2+2*x^3+x^4+5*x^5
では試してみよう。カシオの高精度計算サイトに私が作った5次方程式の計算で。
https://keisan.casio.jp/exec/user/1388468056
計算すると、、、確かに最初に出てくる解だ。
2.0210614ではどうなるか?
Sum((-1)**(n+1)/(P(n)*binomial(2*n,n)),n=1..inf), P(n) up to 3rd degree polynomials.
2021061463139391 = sum((-1)^(n+1)/(7/6*n^3+3/2*n^2+19/3*n+12)/C(2*n,n),n=1..inf)
これも計算してみよう。10桁くらいで確かにそうなった。
ずっと前に書いた話ですが、、、
愛の方程式、i^i^i^i^i^...(iのi乗のi乗のi乗の、、、つまり愛の愛情の愛情の愛情の、、、)の答えは?
というのをPythonでやろうと思う。こういうやつ。
普通にプロットすると、、、(10万回繰り返す)
どこかに収束している。その値は、
(0.4382829367270323+0.3605924718713855j)
になった。これをLambertのW関数を使って求めよう。
c=zzzzzzz…
と置いて、両辺のlogをとる。
log(c) = c*log(z)
ここで
c = exp(log(c))
なので、
log(c) = exp(log(c)) * log(z)
log(z) = exp(-log(c))*log(c)
ということで
(-log(z)) = (-log(c)) * exp( -log(c))
となる。
ところでLambertのW関数というのは
y = w*exp(w) となるようなw=W(y)のことをいう。
-log(c) = W(-log(z))
c = 1/exp(W(-log(z))
これで終わってもいいですが、
W(-log(z))*exp(W(-log(z))) = -log(z)
でもあるので、
c = W(-log(z)) / (-log(z))
ともかける。
ではこれをSciPyで計算しよう。簡単に、
from scipy.special import lambertw
z = 1j
c = lambertw(-np.log(z))/(-np.log(z))
print(c)
で答えは、
となってさっきと一致!
ちなみに、z=√2 とすると、
from scipy.special import lambertw
z = np.sqrt(2)
c = lambertw(-np.log(z))/(-np.log(z))
print(c)
(2.0000000000000004-0j)
2ですね。これを参照。
√2の√2乗の√2乗の、、、、を無限に繰り返すと? (ちょっと追記)
そしてz = exp(π/2)とすると、、、なんと
from scipy.special import lambertw
z = np.exp(np.pi/2)
c = lambertw(-np.log(z))/(-np.log(z))
print(c)
(-1.0028537113604063e-17-1j)
-iになる!
本当に中国の研究者は無茶苦茶だな、、、と思ったり。しかし研究者としては恵まれているのかもしれないが。
リアルタイムメモしましたが、島薗進さんとスプツニ子!さんのインタビューが完全に飛びました(キーが追い付かない)すんません。
ではこちらがリンク。
もうすぐ始まる#NHKスペシャル #2030未来への分岐点 (4)「“神の領域”への挑戦〜ゲノムテクノロジーの光と影〜」https://t.co/riUJsZOskl
— tomo (@tonagai) June 6, 2021
(1)~(3)まで観てたので今回も観ます。
Webサイトの紹介が「餃子の王将史上“最辛(さいから)”
花椒(ファージャオ)香る激辛ラー油使用!!
麺に絡む溶け合う旨さ!! <すり胡麻の香ばしさ! ・練り胡麻のコク! ・
濃厚白湯(パイタン)スープ! ・特製肉味噌の旨み! >」
ということなので辛いもの好きの私としては楽しみにしていた。
セットはご飯小と餃子(1人前にできる)のフェアセットBで。
で、最初1口で、あれ?辛くない、、、???と思ったけれど、だんだん食べていくと
ひき肉にかかっているラー油がスープに溶けるのか徐々に辛くなっていく。とはいえまだちょっと辛さが、ということで
さらに卓上のラー油もかけた。
で食べ続けると最後の方は結構な辛さで汗がじんわり額ににじむくらいになった。
野菜も思ったより多くてこれはいいな。辛いもの好きな方はぜひ。
2の発行から5年近く、、、ずっと待っていたがいつまでも出ないのでもう書店で探すことも忘れてた、、、ら!新刊が出ていて速攻で買った!
怪物専門の探偵、鳥籠使い一行(首だけの不死の美少女、輪堂鴉夜と半人半鬼の青髪の青年、真打津軽、そしてメイド服で特殊な武器、絶影を使いこなす馳井静句)が今回向かうのは2巻の最後で明らかになった人狼の居場所。
あらすじは、「闇夜に少女が連れ去られ、次々と食い殺された。ダイヤの導きに従いドイツに向かった鴉夜たちが遭遇したのは人には成しえぬ怪事件。その村の崖下には人狼の里が隠れているとの伝説があった。一体少女たちを殺したのは人狼なのか、、、夜宴(バンケット)とロイズも介入し、そして、、、」
というもの。
これ、出てくるキャラ出てくるキャラ全部濃くて、キャラ立ちがすごくてキャラものでもある。が、バトルもすごくて、特に
津軽の酔月、静句の厳島(必殺技に名前がついてるのがいい)がかっこいい。最後の最後の津軽と犯人とのバトルも、あーなるほどー!と手を打つほど。あと今回は静句が脱がされ過ぎるくらい脱がされてる、、、
それよりなにより、さすが青崎有吾さんなんで論理ミステリの部分が面白い。トリックはよく知られている(○○館の殺人とか)ものを人狼と人間ならではの話に拡張していてすごい。動機も(これ動機が分かっていたらトリックも最初からわかるというもの)。
あとで読み返しても全部ちゃんとヒントは書かれていたフェアなトリックだし。
そして事件解決後に現れる新キャラ、そして2巻でも出てきたあの人たちも最後の最後に、で4巻が楽しみ(今度はもうちょっと早く、、、でも裏染天馬シリーズも早く、、、)
複素数のデータ、例えばSパラメータを入力にしたとき、あるパラメータを持つ出力関数(これも複素数、かつ普通は非線形)にフィッティングしたいことは良くある。が、scipyの最小二乗法でどうやるのかあまり書いてあるものをみたことがない。
とりあえずあまりスマートじゃないができるようになったので記録として残す。
ポイントは、複素数はoptimize.least_squaresで最小化できないので、いったん実数のラッパーを作ること。
こんな感じ。
import numpy as np
import matplotlib.pyplot as plt
from scipy.optimize import least_squares
# z2 = a (z1 - b)^2 + c という複素関数とする。
def fit_func(a, b, c, z1):
return a * (z1 - b)**2 + c
def res_func(a, b, c, z1, z2):
return fit_func(a, b, c, z1) - z2
#複素数を使うには実数のラッパーが必要
def res_func_wrap(param, x1, x2):
fwrap = res_func(param[0] + 1j*param[1], param[2] + 1j*param[3], param[4] + 1j*param[5],
x1[:,0]+1j*x1[:,1], x2[:,0]+1j*x2[:,1])
return fwrap.real ** 2 + fwrap.imag ** 2
#推定するa, b, c
a = 1 + 2j
b = -1 + 3j
c = -2 - 1j
#データはn点
n=1000
#z1 と z2を計算(乱数でばらつかせる)
z1 = np.zeros(n, dtype = complex)
z2 = np.zeros(n, dtype = complex)
for i in range(n):
z1[i] = (2 * np.random.rand() - 1) + 1j*(2 * np.random.rand() - 1)
z2[i] = fit_func(a, b, c, z1[i]) + 0.1*( (2 * np.random.rand() - 1) + 1j*(2 * np.random.rand() - 1) )
#実数のアレイに直す。
x1 = np.zeros((n,2))
x2 = np.zeros((n,2))
for i in range(n):
x1[i, 0] = z1[i].real
x1[i, 1] = z1[i].imag
x2[i, 0] = z2[i].real
x2[i, 1] = z2[i].imag
#初期値
initial_values = [0, 0, 0, 0, 0, 0]
res = least_squares(res_func_wrap, initial_values, args = (x1, x2))
print(res.x)
実行すると
[ 1.00113061 2.00065746 -1.00031483 2.9985901 -1.99946214 -1.00700744]
となった。実際は
[1,2,-1,3,-2,-1]
なのでちゃんとパラメータ推定できていそう。ただなんかもっさりしているので、もっといいやり方を誰か知っていたら教えてほしいなあ。
今日、
合法的に「出せる」チンチロゲーム『NKODICE』Steamで配信開始―文字を組み合わせると魔法の言葉がまろび出る
というのが話題になっていた。最初に思ったのは、、、あ!キヨシ関数だ。
乱数でズンとドコを5個発生します。ズン・ズン・ズン・ズン・ドコになれば・・・?
というもの。これもkeisan.casio.jpに作ったのでNKODICEもどきも作ってみた。
こちらがリンク:
説明:
Steamで話題の『NKODICE(んこダイス)』もどきです。乱数でサイコロを5個振ります。サイコロの目に「お」「ち」「う」「こ」「ま」「ん」が書かれていて、ある配列になると…?
画面イメージ:
とりあえず例の5文字が並んだ時だけ"Good Job!"とほめてくれる。
他の文字は、、、まあ自粛で、、、
ついでにScratchでもやってみた。
こちら:
https://scratch.mit.edu/projects/539429333/
関連リンク:
キヨシ関数(ズン・ズン・ズン・ズンドコ)をカシオの高精度計算サイトkeisan.casio.jpに作ってみた。
通常、1ポートキャリブレーションはオープン・ショート・ロードの校正スタンダードを使う。
ただ、一般の反射係数のものを使いたいことがある。今回はそれをSympyで計算しよう。
校正スタンダードの1ポートSパラメータ(反射係数)の真値と測定値(それぞれ3つ)をA1,A2,A3とM1,M2,M3とする。
Actual と Measuredの意味合い。
そうすると2ポートエラーモデルを
| e00 e01|
|e10 e11|
としたとき、真値と測定値の関係は
Mi = e00 + (e01*e01) * Ai / (1 - e11 * Ai)
とかける。
3つ式ができるので、エラーモデルの変数について解く。
こんな感じで計算できた。
« 2021年5月 | トップページ | 2021年7月 »
最近のコメント