自分用メモ

まだいろいろと再構成中。

アドラー心理学、7つの習慣など、いろいろとすばらしい・・・ものの、これらを真に受けて実際のこの世に適用すると、これらのすばらしい理論は結局性善説に基づいているので、最終的には自分だけが裏切られて他人に利用されて終わりとなる。(人生の期限が無限大なら結論は違うかもしれないが、言うまでもなく人生の時間は有限。)

有限なことを前提に考えると、現実問題、性善説は間違っている。

かといって性悪説を信じているなんて人前で言うのは、他人を信じている証拠なのでそれはただの馬鹿w。

「性善説を標榜しながら、本心は性悪説」、他人の前では平気で嘘を言って利用。かつ、 evidence basedな処世術を行うのが最良の方法というのが結論。


p.s. 「裏切者の早期発見」も重要

情報を隠蔽した上で結託して人を裏切った上、有利なほうにころころ立場を変える風見鶏坊やとそれを利用する邪悪な糞婆がくっついて、結局古い腐れ縁の知り合いに頼っておんぶにだっこ・・・してる奴等。見苦しいばかり。神の天罰が下る。----- 腐れ縁の知り合いさん、縁を切ったほうがいいと思うよ。そういう奴等と関わってもあんたがたも利用されてるだけだよ。状況が変わるとあんたがたも裏切られるんだよ。早く見抜いたほうがいいよ。

D.S. とか、To Codaとかいろいろ作って、一応かっこよく譜面ができていても、再生するとコーダに飛ばないコーダの部分に小節番号が付かないという症状になってしまう。

これは、コーダ記号だけでなく、テキストで Coda と入れてやると解決する。

こちらのページ様の下のほう参照。

次はこれ
とにかく入れてやってみる。
1
なんか、いろいろ怒られるので、頭にこういうのを入れてみた(赤いところ)。

2
いろいろやっても怒られっぱなしで挫折したので、書いておく。とりあえず、ここまで。

次はこちら

ちゃんと全部の構文を理解しないとダメなわけだけど、まずはその前に、とりあえずひととおり動かしてみる作業。

まずは、jupyter notebook上でmodel.pyを作成してsave。inference.pyも作成してsave。
で、お次は、inference.pyを実行するのだが、どうやって実行するんだろう?

1. コマンドプロンプトでCtrl + Cを押してjupyter notebookを終わらせてから、python inference.pyと入れてEnter。
これをやると、このようになる。
1
このように、まずは例によって、沢山SSE命令ダメだよ…うんぬんが出てから、「initialize_all_variablesは古いからtf.global_variables_initializerを使ってね」というのが出る。ここで既にやったとおり。そのあとは、次にように結果が延々と並ぶ。
2
3
このように、130秒かかって全部終わる。SummaryWriterで怒られるのも既にやった通り。

--

2. jupyter notebook上で、!python inference.pyと入れてShift + Enter。
jupyter notebookでは、! の後にコマンドを打てるみたい。
こっちのほうが、なんかカッコイイかもね。
こんなふうになった。
4
全部貼ると、こんなかんじ。

Epoch 1: ./data/data_batch_1.bin
[6]: [array([[-0.00244634, -0.00595317, 0.00198949, -0.00988489, 0.02464342,
0.00959671, -0.01094623, -0.00265316, 0.01137706, 0.00098879]], dtype=float32)]
[9]: [array([[-0.00245464, -0.00595713, 0.00197492, -0.00989039, 0.02463724,
0.00960299, -0.0109346 , -0.00264315, 0.01137412, 0.00097986]], dtype=float32)]
[7]: [array([[-0.00244821, -0.00595995, 0.00198389, -0.00989162, 0.02463682,
0.0096166 , -0.0109265 , -0.0026347 , 0.01137051, 0.00097993]], dtype=float32)]
[3]: [array([[-0.00243875, -0.00595814, 0.00197866, -0.0098967 , 0.02462693,
0.0095787 , -0.01092821, -0.00265507, 0.01135298, 0.00099202]], dtype=float32)]
[5]: [array([[-0.00244741, -0.00594536, 0.0019952 , -0.00987465, 0.02463432,
0.00960753, -0.010921 , -0.00263722, 0.0113809 , 0.00098241]], dtype=float32)]
[6]: [array([[-0.00243351, -0.00595452, 0.00198534, -0.00989072, 0.02463123,
0.00958697, -0.01091246, -0.0026446 , 0.01134686, 0.00099766]], dtype=float32)]
[6]: [array([[-0.00246548, -0.00595936, 0.00198966, -0.00987074, 0.02462012,
0.00962291, -0.01095271, -0.00263457, 0.01137924, 0.00098049]], dtype=float32)]
[5]: [array([[-0.00245922, -0.00595973, 0.00200748, -0.00988819, 0.02463621,
0.009608 , -0.01094383, -0.00265285, 0.01135599, 0.00099217]], dtype=float32)]
[3]: [array([[-0.00243824, -0.00594302, 0.00198244, -0.00988816, 0.02460522,
0.00959729, -0.01094321, -0.00262852, 0.01137923, 0.00095626]], dtype=float32)]
[4]: [array([[-0.00244699, -0.00595367, 0.00199575, -0.00986645, 0.0246434 ,
0.00962721, -0.01093157, -0.00265985, 0.01138323, 0.00099012]], dtype=float32)]
Epoch 1: ./data/data_batch_2.bin
[1]: [array([[-0.00244674, -0.00594459, 0.00199747, -0.00988315, 0.02463545,
0.00961634, -0.01094857, -0.00264649, 0.01133764, 0.00101566]], dtype=float32)]
[1]: [array([[-0.0024461 , -0.00594119, 0.00198696, -0.00989076, 0.0246391 ,
0.0096054 , -0.01092881, -0.00264309, 0.01135787, 0.00097908]], dtype=float32)]
[6]: [array([[-0.00243893, -0.00596225, 0.00196764, -0.00987746, 0.02461455,
0.00961499, -0.01096156, -0.00267245, 0.01136855, 0.00099817]], dtype=float32)]
[9]: [array([[-0.00245094, -0.00594483, 0.00198694, -0.00988459, 0.02462018,
0.0095978 , -0.0109426 , -0.00263638, 0.01135645, 0.0009942 ]], dtype=float32)]
[4]: [array([[-0.00246787, -0.00594623, 0.00199196, -0.00986615, 0.0246327 ,
0.00962686, -0.01095616, -0.00267122, 0.01137435, 0.00100457]], dtype=float32)]
[0]: [array([[-0.00245966, -0.00595205, 0.00200379, -0.00986038, 0.02463473,
0.00963628, -0.01093572, -0.00265075, 0.0113629 , 0.00100174]], dtype=float32)]
[7]: [array([[-0.00244317, -0.00594284, 0.00198607, -0.00988566, 0.02461753,
0.00959724, -0.01091724, -0.00263656, 0.01137326, 0.00097837]], dtype=float32)]
[6]: [array([[-0.00243535, -0.00595829, 0.00197583, -0.00989591, 0.02461889,
0.00958684, -0.01092324, -0.00264586, 0.01136023, 0.00097308]], dtype=float32)]
[9]: [array([[-0.00245309, -0.00596283, 0.00199385, -0.00987581, 0.0246319 ,
0.00961102, -0.01094303, -0.00264824, 0.01137735, 0.00099686]], dtype=float32)]
[6]: [array([[-0.00245881, -0.00594819, 0.00198782, -0.00989483, 0.02462407,
0.00959198, -0.01096453, -0.00267955, 0.0113695 , 0.00097662]], dtype=float32)]
Epoch 1: ./data/data_batch_3.bin
[8]: [array([[-0.00245849, -0.0059495 , 0.00198469, -0.00988716, 0.02462307,
0.00960154, -0.01092682, -0.00264598, 0.01135999, 0.00099896]], dtype=float32)]
[0]: [array([[-0.00243918, -0.00594433, 0.00198455, -0.00988821, 0.02463539,
0.00959167, -0.01092401, -0.00263373, 0.01138591, 0.00096997]], dtype=float32)]
[8]: [array([[-0.00243968, -0.00594105, 0.00198405, -0.00988628, 0.02461338,
0.00959997, -0.01092421, -0.00263379, 0.01136266, 0.000991 ]], dtype=float32)]
[7]: [array([[-0.00246419, -0.0059481 , 0.00199523, -0.00986992, 0.02462882,
0.00963535, -0.01093203, -0.00264535, 0.01137579, 0.0009901 ]], dtype=float32)]
[6]: [array([[-0.00245742, -0.00596399, 0.00198381, -0.00989731, 0.02462786,
0.00963252, -0.01096096, -0.0026654 , 0.01139002, 0.00098597]], dtype=float32)]
[6]: [array([[-0.00244699, -0.00594592, 0.00198501, -0.00987424, 0.024635 ,
0.0095992 , -0.01091726, -0.00264267, 0.01135957, 0.0009888 ]], dtype=float32)]
[0]: [array([[-0.002445 , -0.00594516, 0.00197978, -0.00990169, 0.02463399,
0.00959137, -0.01093544, -0.00263338, 0.01136 , 0.00097993]], dtype=float32)]
[0]: [array([[-0.00243496, -0.0059551 , 0.00199786, -0.00987548, 0.0246502 ,
0.00962376, -0.01092738, -0.00264214, 0.01137307, 0.00098261]], dtype=float32)]
[0]: [array([[-0.00246893, -0.00595838, 0.00200159, -0.00989167, 0.02463274,
0.00962405, -0.01093802, -0.00265352, 0.01137903, 0.00099249]], dtype=float32)]
[9]: [array([[-0.00246255, -0.00595943, 0.001993 , -0.00988155, 0.02462632,
0.00962803, -0.01093849, -0.00264494, 0.01137619, 0.00099348]], dtype=float32)]
Epoch 1: ./data/data_batch_4.bin
[0]: [array([[-0.00244875, -0.00595972, 0.00198785, -0.00990175, 0.02465177,
0.00960661, -0.01093375, -0.00264825, 0.01138575, 0.00099819]], dtype=float32)]
[0]: [array([[-0.00247831, -0.00595357, 0.00198175, -0.00988744, 0.02462455,
0.00962128, -0.0109399 , -0.0026476 , 0.0113797 , 0.00097579]], dtype=float32)]
[7]: [array([[-0.00246578, -0.00595225, 0.00199127, -0.00987221, 0.02462908,
0.00961141, -0.01095871, -0.00265049, 0.01139212, 0.00098407]], dtype=float32)]
[0]: [array([[-0.00244092, -0.00595053, 0.00198721, -0.00989037, 0.02463593,
0.00959741, -0.01092742, -0.00262761, 0.01135004, 0.00100719]], dtype=float32)]
[3]: [array([[-0.00245085, -0.00595968, 0.00198084, -0.00987961, 0.02463653,
0.00960116, -0.01093262, -0.00264816, 0.01135352, 0.00099103]], dtype=float32)]
[5]: [array([[-0.00245706, -0.00596417, 0.00195937, -0.00987887, 0.02463233,
0.00960331, -0.01094326, -0.0026634 , 0.01134896, 0.00099449]], dtype=float32)]
[3]: [array([[-0.00246039, -0.00594421, 0.00198876, -0.00988443, 0.0246324 ,
0.00959582, -0.01093495, -0.00264604, 0.01138042, 0.00097933]], dtype=float32)]
[7]: [array([[-0.00243879, -0.00595246, 0.0019775 , -0.00989782, 0.02462157,
0.00959335, -0.01092475, -0.00264263, 0.01137223, 0.00096684]], dtype=float32)]
[0]: [array([[-0.00245381, -0.00594334, 0.00200437, -0.00987913, 0.02462805,
0.00961802, -0.01092618, -0.00264535, 0.0113663 , 0.00099122]], dtype=float32)]
[6]: [array([[-0.00246168, -0.00594992, 0.00198115, -0.00989264, 0.02461827,
0.00957733, -0.01093835, -0.00265191, 0.01137355, 0.00098113]], dtype=float32)]
Epoch 1: ./data/data_batch_5.bin
[1]: [array([[-0.00245253, -0.00595543, 0.0020078 , -0.00987452, 0.02463531,
0.00960062, -0.01093498, -0.00264423, 0.01137632, 0.0009964 ]], dtype=float32)]
[7]: [array([[-0.00245878, -0.00595623, 0.00199332, -0.00987854, 0.02464578,
0.0095953 , -0.0109324 , -0.0026533 , 0.01137438, 0.00099649]], dtype=float32)]
[9]: [array([[-0.00244727, -0.00595742, 0.00199177, -0.00987431, 0.02465862,
0.00961397, -0.01094106, -0.0026408 , 0.01137439, 0.0009948 ]], dtype=float32)]
[5]: [array([[-0.0024677 , -0.00594921, 0.00199702, -0.00988451, 0.02461458,
0.00961747, -0.0109435 , -0.00265094, 0.01136084, 0.00100084]], dtype=float32)]
[7]: [array([[-0.00247282, -0.00595007, 0.00198305, -0.00986756, 0.02461854,
0.00962661, -0.01095243, -0.00266825, 0.01137566, 0.00096907]], dtype=float32)]
[7]: [array([[-0.00244962, -0.00594537, 0.00199797, -0.00989445, 0.02462613,
0.00959936, -0.01093742, -0.00266662, 0.01135422, 0.00099657]], dtype=float32)]
[2]: [array([[-0.00243884, -0.00595979, 0.00198937, -0.00988127, 0.02461042,
0.00959373, -0.01093943, -0.00264011, 0.01136843, 0.00097741]], dtype=float32)]
[8]: [array([[-0.00247248, -0.00595023, 0.0019895 , -0.00986364, 0.02462752,
0.00960326, -0.01092588, -0.00266116, 0.0113649 , 0.00098528]], dtype=float32)]
[1]: [array([[-0.00245684, -0.00595252, 0.00197753, -0.00988479, 0.02461042,
0.00960124, -0.01093397, -0.00264403, 0.01137122, 0.00099252]], dtype=float32)]
[8]: [array([[-0.00245592, -0.005959 , 0.00198417, -0.00988884, 0.02463468,
0.00962273, -0.01093104, -0.00263899, 0.01137646, 0.00098523]], dtype=float32)]
epoch 1 duration = 128 sec
WARNING:tensorflow:From D:\Users\atatan\Anaconda3\envs\tensorflow\lib\site-packages\tensorflow\python\util\tf_should_use.py:170: initialize_all_variables (from tensorflow.python.ops.variables) is deprecated and will be removed after 2017-03-02.
Instructions for updating:
Use `tf.global_variables_initializer` instead.
Traceback (most recent call last):
File "inference.py", line 71, in
tf.app.run()
File "D:\Users\atatan\Anaconda3\envs\tensorflow\lib\site-packages\tensorflow\python\platform\app.py", line 48, in run
_sys.exit(main(_sys.argv[:1] + flags_passthrough))
File "inference.py", line 66, in main
tf.train.SummaryWriter(FLAGS.checkpoint_dir, sess.graph)
AttributeError: module 'tensorflow.python.training.training' has no attribute 'SummaryWriter'
2017-08-19 17:33:28.271743: W c:\tf_jenkins\home\workspace\release-win\m\windows\py\36\tensorflow\core\platform\cpu_feature_guard.cc:45] The TensorFlow library wasn't compiled to use SSE instructions, but these are available on your machine and could speed up CPU computations.
2017-08-19 17:33:28.271759: W c:\tf_jenkins\home\workspace\release-win\m\windows\py\36\tensorflow\core\platform\cpu_feature_guard.cc:45] The TensorFlow library wasn't compiled to use SSE2 instructions, but these are available on your machine and could speed up CPU computations.
2017-08-19 17:33:28.271763: W c:\tf_jenkins\home\workspace\release-win\m\windows\py\36\tensorflow\core\platform\cpu_feature_guard.cc:45] The TensorFlow library wasn't compiled to use SSE3 instructions, but these are available on your machine and could speed up CPU computations.
2017-08-19 17:33:28.271766: W c:\tf_jenkins\home\workspace\release-win\m\windows\py\36\tensorflow\core\platform\cpu_feature_guard.cc:45] The TensorFlow library wasn't compiled to use SSE4.1 instructions, but these are available on your machine and could speed up CPU computations.
2017-08-19 17:33:28.271769: W c:\tf_jenkins\home\workspace\release-win\m\windows\py\36\tensorflow\core\platform\cpu_feature_guard.cc:45] The TensorFlow library wasn't compiled to use SSE4.2 instructions, but these are available on your machine and could speed up CPU computations.
2017-08-19 17:33:28.271773: W c:\tf_jenkins\home\workspace\release-win\m\windows\py\36\tensorflow\core\platform\cpu_feature_guard.cc:45] The TensorFlow library wasn't compiled to use AVX instructions, but these are available on your machine and could speed up CPU computations.
2017-08-19 17:33:28.271775: W c:\tf_jenkins\home\workspace\release-win\m\windows\py\36\tensorflow\core\platform\cpu_feature_guard.cc:45] The TensorFlow library wasn't compiled to use AVX2 instructions, but these are available on your machine and could speed up CPU computations.
2017-08-19 17:33:28.271778: W c:\tf_jenkins\home\workspace\release-win\m\windows\py\36\tensorflow\core\platform\cpu_feature_guard.cc:45] The TensorFlow library wasn't compiled to use FMA instructions, but these are available on your machine and could speed up CPU computations.
In [ ]:

?
結局内容は、1. の時と同じ。ちゃんと2回怒られるし、SSEコマンドうんぬんも出てくる。

--

せっかく怒られたので、
initialize_all_variables → tf.global_variables_initializer
tf.train.SummaryWriter → tf.summary.FileWriter
を直してみようか。

inference.pyの中の、tf.initialize_all_variablesをtf.global_variables_initializerに、
inference.pyの中の、tf.train.SummaryWriterをtf.summary.FileWriterに変更。

そして、jupyter notebook上で、!python inference.pyと入れてShift + Enterする。
・・・しかし・・・15分、20分位経っても終わらず・・・。何で??

--

結局きりが無いので中断。で、もう一回元の構文にすると、ちゃんと130秒で終わる。なので、実験。

tf.initialize_all_variablesをtf.global_variables_initializerにしない。
tf.train.SummaryWriterをtf.summary.FileWriterにしない。
→ ちゃんと130秒で終わる。

tf.initialize_all_variablesをtf.global_variables_initializerにする。
tf.train.SummaryWriterをtf.summary.FileWriterにしない。
→ ちゃんと134秒で終わる。

tf.initialize_all_variablesをtf.global_variables_initializerにしない。
tf.train.SummaryWriterをtf.summary.FileWriterにする。
→ 延々終わらず、ダメ。

tf.initialize_all_variablesをtf.global_variables_initializerにする。
tf.train.SummaryWriterをtf.summary.FileWriterにする。
→ 延々終わらず、ダメ。

という結果になったので、結論。

tf.summary.FileWriter がガン。

ということみたい。

--

なんか、不良品?改悪?バグ?なの??
っていうか、ハードウェアとか一般の製品 → 不良品が出れば社会問題。そのかわり有料。
ソフト → 動かなくて当たり前、β伴と言えば許される?ww。無料なので文句は言えない。
というわけですね。 これで有料だったら文句タラタラが当然だけど、無料だからありがたく古いバージョンを使い続けるのが正解。ですな。w 

5
前回挫折したので、別の日にゆっくり見直してみる。
すると・・・reader.pyも、convert_cifar10_png.pyもできているのは確認済。と書いたものの、できていたけど中身を見たら、なぜか空だったwww(^◇^)
空な理由は不明だが動かない原因は分かったので、再度、reader.py、convert_cifar10_png.pyを作って、今度は中身があることを確認。

そして、コマンドプロンプト上でCtrl +Cをやって、jupyter notebookを終わらせる。そして、

python convert_cifar10_png.py --file ./data/data_batch_1.bin

と打ってみると・・・おお、ちゃんと反応がありましたよ。以下、次の画像。
0819-01
ModuleNotFoundError : No module named 'PIL'
ときましたよ。
こういうふうに、だんまりじゃなくてなんか文句を言ってくれればありがたいわけで。w

早速検索してこちらのサイト様。

なので、pip install pillowをやると、御覧の通りちゃんと反応して、そしてもう一度
python convert_cifar10_png.py --file ./data/data_batch_1.bin
をやると、ご覧の通り、ちゃんと動きました。 

で、やっぱり、5個あるから5個全部やるんだろうな?と思ったのでやってみた。
0819-02
とりあえず、これで、リベンジ終了のはず。


次はこれ

手順通りにやってみて、tensorflowのディレクトリに、reader.pyも、convert_cifar10_png.pyもできているのは確認済。

しかし、

$ python3 convert_cifar10_png.py --file ./data/data_batch_1.bin
をやるとダメ。

jupyter notebook上ではなく、コマンドプロンプトに行ってjupyter notebookを終了させて、さらにtensorflowもdeactivateして、python3だと怒られるので、

python convert_cifar10_png.py --file ./data/data_batch_1.bin

と打ってみた。なんとかエラーは出ないでコマンドプロンプトに戻るものの・・・
dataディレクトリ内には何も起こらず。

今のところ、ここで挫折中。

お次はこちら
S1
と、SummaryWriterで怒られましたね。(^^♪
で、ここを見てもわからない。
なので、ググってみると、こちらのサイト様が。いや~すばらしいですな~☆
なので、ありがたく、tf.train.SummaryWriter -> tf.summary.FileWriter。
S2
無事に正常動作しました。

--

それで、$ tensorboardって、当然ながら、jupyter notebook上で打ってもダメだし、コマンドプロンプト上ではjupyter notebookが動いていてコマンドを入力できないんですけど。w

なので、またまた検索して、こちらのサイト様。
本当に、Qiitaのサイト様すばらしいですな~

おんぶにだっこで、その通りやってみると・・・

まずは、これを作るんですね。コピペしただけ。。。w
S3

そして実行。
S4
ああ、すばらしい~

しかし、ちょっとサイズが今一なのでサイズ変更をしてみても、なぜか全く変わらないので、とりあえずは我慢。w
で、スクロールして右端まで出してみるとこんな感じ。
S5
おお、例題どおりになってますね。
でも、Mulの入力がConst2ではなくてConst1なのはなんでだろう??よくわかんないす。

というわけで、mulがダメで、multiplyがいいっていうのを、ちゃんと自分で確認してみる作業。

どうやらここですな。API Documentation。

ということは、ここにあるとおり、pythonだけでなく、C++でも、Javaでも、Goでも、同じようなことができるっていうことのはず。でも今は余裕ないからpythonだけですよ。w

ここから、python API master → tf をクリックすると、たくさん出てくる。
そこには確かに、mulは無くてmultiplyがある。
tf.multiply
ここを全部読めば、全部のAPIがわかるっていうことですな~。

辞書ということで。今後はちゃんと読むようにせねば~~~(^◇^)

TensorFlow.orgのチュートリアルをひととおり試してみたものの、その本質的理解がなかなか進まずに自分独自の利用に歩みが進まないケースが散見されます

おお、まさにそれwww 
途中まで動かしてみたものの、全然動作原理がわからず、結局、あるところで動かなくなって、そこから何をやっていいかも動かない原因もわからないまま放置・・・・だったですよ。

なので、もっと基礎的なことからゆっくりやることにした。

過去ありがちだったのは、あるところまでチュートリアルをやって、一旦躓くとどうしようもなくなって放置して、さんざん苦労して動かした基礎的なことまで忘れてしまって努力が無駄になるっていうパターン。今回は、tensorflowをjupyter notebookで立ち上げるまでの苦労がまさにそれ!

なので、tensorflowをjupyter notebookで立ち上げる作業すら忘れないように、おバカな例題でもいいから少しでも手を動かして遊ぶようにした。

---

で、こちらのサイト様。
こちらにある簡単な例題をとりあえずマネしてみようかという。で、やってみた。

01
うん。1個目はおk。
2個目。
const1, const2, add_apは、Pythonプログラム上では変数ですが、TensorFlowではデータフローグラフを構成するノード、つまり「オペレーション」です*2。そのためprintで中身を見ようとしても「Tensor」としか表示されないのです
ということですね。

で、次。
02
おっと、エラーですよ。

いろいろ調べた結果、こちらのサイト様にあった通り。
You'll need to replace tf.mul with tf.multiply.
ということなのでやってみた。

03

Good
まさにそれが原因でしたよ。 ということで、今回はここまで。www

このページのトップヘ