2018年3月4日日曜日

Kerasでmnist_cnn.pyの学習済みモデルとウェイトを出力する

一回回してみたら、
ImportError: `save_weights` requires h5py.
と怒られたので、h5pyをインストールしておく。

PS > pip install h5py

しれっとインストールは成功。
コードはKerasのサンプルにあるmnist_cnn.pyにモデルとウエイトを保存するところをくっつけただけ。

'''Trains a simple convnet on the MNIST dataset.

Gets to 99.25% test accuracy after 12 epochs
(there is still a lot of margin for parameter tuning).
16 seconds per epoch on a GRID K520 GPU.
'''

from __future__ import print_function
import keras
from keras.datasets import mnist
from keras.models import Sequential
from keras.layers import Dense, Dropout, Flatten
from keras.layers import Conv2D, MaxPooling2D
from keras import backend as K

batch_size = 128
num_classes = 10
epochs = 12

# input image dimensions
img_rows, img_cols = 28, 28

# the data, split between train and test sets
(x_train, y_train), (x_test, y_test) = mnist.load_data()

if K.image_data_format() == 'channels_first':
    x_train = x_train.reshape(x_train.shape[0], 1, img_rows, img_cols)
    x_test = x_test.reshape(x_test.shape[0], 1, img_rows, img_cols)
    input_shape = (1, img_rows, img_cols)
else:
    x_train = x_train.reshape(x_train.shape[0], img_rows, img_cols, 1)
    x_test = x_test.reshape(x_test.shape[0], img_rows, img_cols, 1)
    input_shape = (img_rows, img_cols, 1)

x_train = x_train.astype('float32')
x_test = x_test.astype('float32')
x_train /= 255
x_test /= 255
print('x_train shape:', x_train.shape)
print(x_train.shape[0], 'train samples')
print(x_test.shape[0], 'test samples')

# convert class vectors to binary class matrices
y_train = keras.utils.to_categorical(y_train, num_classes)
y_test = keras.utils.to_categorical(y_test, num_classes)

model = Sequential()
model.add(Conv2D(32, kernel_size=(3, 3),
                 activation='relu',
                 input_shape=input_shape))
model.add(Conv2D(64, (3, 3), activation='relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))
model.add(Flatten())
model.add(Dense(128, activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(num_classes, activation='softmax'))

model.compile(loss=keras.losses.categorical_crossentropy,
              optimizer=keras.optimizers.Adadelta(),
              metrics=['accuracy'])

model.fit(x_train, y_train,
          batch_size=batch_size,
          epochs=epochs,
          verbose=1,
          validation_data=(x_test, y_test))
score = model.evaluate(x_test, y_test, verbose=0)
print('Test loss:', score[0])
print('Test accuracy:', score[1])

### save model and weights
json_string = model.to_json()
open('mnist_cnn_model.json', 'w').write(json_string)
model.save_weights('mnist_cnn_weights.hdf5')



モデル(mnist_cnn_modek.json)の中身はこんな感じだった。

{"class_name": "Sequential", "config": [{"class_name": "Conv2D", "config": {"name": "conv2d_1", "trainable": true, "batch_input_shape": [null, 28, 28, 1], "dtype": "float32", "filters": 32, "kernel_size": [3, 3], "strides": [1, 1], "padding": "valid", "data_format": "channels_last", "dilation_rate": [1, 1], "activation": "relu", "use_bias": true, "kernel_initializer": {"class_name": "VarianceScaling", "config": {"scale": 1.0, "mode": "fan_avg", "distribution": "uniform", "seed": null}}, "bias_initializer": {"class_name": "Zeros", "config": {}}, "kernel_regularizer": null, "bias_regularizer": null, "activity_regularizer": null, "kernel_constraint": null, "bias_constraint": null}}, {"class_name": "Conv2D", "config": {"name": "conv2d_2", "trainable": true, "filters": 64, "kernel_size": [3, 3], "strides": [1, 1], "padding": "valid", "data_format": "channels_last", "dilation_rate": [1, 1], "activation": "relu", "use_bias": true, "kernel_initializer": {"class_name": "VarianceScaling", "config": {"scale": 1.0, "mode": "fan_avg", "distribution": "uniform", "seed": null}}, "bias_initializer": {"class_name": "Zeros", "config": {}}, "kernel_regularizer": null, "bias_regularizer": null, "activity_regularizer": null, "kernel_constraint": null, "bias_constraint": null}}, {"class_name": "MaxPooling2D", "config": {"name": "max_pooling2d_1", "trainable": true, "pool_size": [2, 2], "padding": "valid", "strides": [2, 2], "data_format": "channels_last"}}, {"class_name": "Dropout", "config": {"name": "dropout_1", "trainable": true, "rate": 0.25, "noise_shape": null, "seed": null}}, {"class_name": "Flatten", "config": {"name": "flatten_1", "trainable": true}}, {"class_name": "Dense", "config": {"name": "dense_1", "trainable": true, "units": 128, "activation": "relu", "use_bias": true, "kernel_initializer": {"class_name": "VarianceScaling", "config": {"scale": 1.0, "mode": "fan_avg", "distribution": "uniform", "seed": null}}, "bias_initializer": {"class_name": "Zeros", "config": {}}, "kernel_regularizer": null, "bias_regularizer": null, "activity_regularizer": null, "kernel_constraint": null, "bias_constraint": null}}, {"class_name": "Dropout", "config": {"name": "dropout_2", "trainable": true, "rate": 0.5, "noise_shape": null, "seed": null}}, {"class_name": "Dense", "config": {"name": "dense_2", "trainable": true, "units": 10, "activation": "softmax", "use_bias": true, "kernel_initializer": {"class_name": "VarianceScaling", "config": {"scale": 1.0, "mode": "fan_avg", "distribution": "uniform", "seed": null}}, "bias_initializer": {"class_name": "Zeros", "config": {}}, "kernel_regularizer": null, "bias_regularizer": null, "activity_regularizer": null, "kernel_constraint": null, "bias_constraint": null}}], "keras_version": "2.1.4", "backend": "tensorflow"}

ウェイト情報の詰まったHDFファイルを開くには別途アプリを探すか、Pythonで簡単なコードを書かなきゃいけないので今回は割愛。

2018年3月1日木曜日

で、TensorBoardを使ってみたいよね

画像認識させるためにCNN(Convolutional Neural Network)を回してみてる。
で、学習過程などをビジュアライズ化したい。
Sony Neural Network Consoleならいきなりビジュアル化なんだけど、Kerasは簡単じゃなかった。

サンプルにTensorBoard向けの追加コードを書き込む


'''Trains a simple convnet on the MNIST dataset.

Gets to 99.25% test accuracy after 12 epochs
(there is still a lot of margin for parameter tuning).
16 seconds per epoch on a GRID K520 GPU.
'''

from __future__ import print_function
import keras
from keras.datasets import mnist
from keras.models import Sequential
from keras.layers import Dense, Dropout, Flatten
from keras.layers import Conv2D, MaxPooling2D
from keras import backend as K

batch_size = 128
num_classes = 10
epochs = 12

# input image dimensions
img_rows, img_cols = 28, 28

# the data, split between train and test sets
(x_train, y_train), (x_test, y_test) = mnist.load_data()

if K.image_data_format() == 'channels_first':
    x_train = x_train.reshape(x_train.shape[0], 1, img_rows, img_cols)
    x_test = x_test.reshape(x_test.shape[0], 1, img_rows, img_cols)
    input_shape = (1, img_rows, img_cols)
else:
    x_train = x_train.reshape(x_train.shape[0], img_rows, img_cols, 1)
    x_test = x_test.reshape(x_test.shape[0], img_rows, img_cols, 1)
    input_shape = (img_rows, img_cols, 1)

x_train = x_train.astype('float32')
x_test = x_test.astype('float32')
x_train /= 255
x_test /= 255
print('x_train shape:', x_train.shape)
print(x_train.shape[0], 'train samples')
print(x_test.shape[0], 'test samples')

# convert class vectors to binary class matrices
y_train = keras.utils.to_categorical(y_train, num_classes)
y_test = keras.utils.to_categorical(y_test, num_classes)


### TensorBoard向け追加コードここから
import keras.callbacks
import keras.backend.tensorflow_backend as KTF
import tensorflow as tf

old_session = KTF.get_session()

session = tf.Session('')
KTF.set_session(session)
KTF.set_learning_phase(1)
### TensorBoard向け追加コードここまで



model = Sequential()
model.add(Conv2D(32, kernel_size=(3, 3),
                 activation='relu',
                 input_shape=input_shape))
model.add(Conv2D(64, (3, 3), activation='relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))
model.add(Flatten())
model.add(Dense(128, activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(num_classes, activation='softmax'))

### TensorBoard向け追加コードここから
model.summary()
### TensorBoard向け追加コードここまで


model.compile(loss=keras.losses.categorical_crossentropy,
              optimizer=keras.optimizers.Adadelta(),
              metrics=['accuracy'])

### TensorBoard向け追加コードここから
tb_cb = keras.callbacks.TensorBoard(log_dir="log_dir/", histogram_freq=1)
cbks = [tb_cb]
### TensorBoard向け追加コードここまで


history = model.fit(x_train, y_train,
          batch_size=batch_size,
          epochs=epochs,
          verbose=1,
         ### TensorBoard向け追加コードここから
          callbacks=cbks,
   ### TensorBoard向け追加コードここまで
          validation_data=(x_test, y_test))
score = model.evaluate(x_test, y_test, verbose=0)
print('Test loss:', score[0])
print('Test accuracy:', score[1])


### TensorBoard向け追加コードここから
KTF.set_session(old_session)
### TensorBoard向け追加コードここまで



意味は分かっていないので今週末にでもじっくり考えてみるつもり。
で、ビジュアライズ化したのがこれら。





ネット情報とは異なっていたのは、
■URLの指定がhttp://コンピュータ名:6006
 ネット情報ではhttp://localhost:6006だった。
■Google Chromeでしか表示されないということだったが、FireFoxでも表示できた。

ログ出力をさせたらやたら遅くなったので、ファイルを見てみたら110MBytes位のサイズがあった。SSD使っていても遅くなるわけだ。

おまけ:
Windows10でMacキーボードを使っているわけだが、PrintScreenはF14キーが対応しているということを今日知った。

2018年2月28日水曜日

mnist_cnn.pyを動かしてみた

サンプルプログラムはここからダウンロードした。
https://github.com/keras-team/keras/blob/master/examples/mnist_cnn.py

さっそく実行。

Windows PowerShell
Copyright (C) Microsoft Corporation. All rights reserved.

PS > python mnist_cnn.py
Using TensorFlow backend.
x_train shape: (60000, 28, 28, 1)
60000 train samples
10000 test samples
Train on 60000 samples, validate on 10000 samples
Epoch 1/12
2018-02-28 14:28:39.205108: I C:\tf_jenkins\workspace\rel-win\M\windows-gpu\PY\36\tensorflow\core\platform\cpu_feature_guard.cc:137] Your CPU supports instructions that this TensorFlow binary was not compiled to
 use: AVX AVX2
2018-02-28 14:28:39.467982: I C:\tf_jenkins\workspace\rel-win\M\windows-gpu\PY\36\tensorflow\core\common_runtime\gpu\gpu_device.cc:1105] Found device 0 with properties:
name: GeForce GTX 970 major: 5 minor: 2 memoryClockRate(GHz): 1.2155
pciBusID: 0000:01:00.0
totalMemory: 4.00GiB freeMemory: 3.31GiB
2018-02-28 14:28:39.472806: I C:\tf_jenkins\workspace\rel-win\M\windows-gpu\PY\36\tensorflow\core\common_runtime\gpu\gpu_device.cc:1195] Creating TensorFlow device (/device:GPU:0) -> (device: 0, name: GeForce GT
X 970, pci bus id: 0000:01:00.0, compute capability: 5.2)
60000/60000 [==============================] - 11s 176us/step - loss: 0.2587 - acc: 0.9195 - val_loss: 0.0584 - val_acc: 0.9808
Epoch 2/12
60000/60000 [==============================] - 9s 142us/step - loss: 0.0858 - acc: 0.9739 - val_loss: 0.0386 - val_acc: 0.9863
Epoch 3/12
60000/60000 [==============================] - 9s 142us/step - loss: 0.0654 - acc: 0.9807 - val_loss: 0.0317 - val_acc: 0.9886
Epoch 4/12
60000/60000 [==============================] - 9s 142us/step - loss: 0.0549 - acc: 0.9834 - val_loss: 0.0317 - val_acc: 0.9888
Epoch 5/12
60000/60000 [==============================] - 9s 143us/step - loss: 0.0476 - acc: 0.9860 - val_loss: 0.0311 - val_acc: 0.9894
Epoch 6/12
60000/60000 [==============================] - 9s 142us/step - loss: 0.0426 - acc: 0.9873 - val_loss: 0.0327 - val_acc: 0.9906
Epoch 7/12
60000/60000 [==============================] - 9s 142us/step - loss: 0.0385 - acc: 0.9882 - val_loss: 0.0278 - val_acc: 0.9906
Epoch 8/12
60000/60000 [==============================] - 9s 142us/step - loss: 0.0355 - acc: 0.9890 - val_loss: 0.0245 - val_acc: 0.9918
Epoch 9/12
60000/60000 [==============================] - 9s 142us/step - loss: 0.0326 - acc: 0.9897 - val_loss: 0.0284 - val_acc: 0.9904
Epoch 10/12
60000/60000 [==============================] - 9s 142us/step - loss: 0.0283 - acc: 0.9910 - val_loss: 0.0293 - val_acc: 0.9906
Epoch 11/12
60000/60000 [==============================] - 9s 142us/step - loss: 0.0283 - acc: 0.9914 - val_loss: 0.0270 - val_acc: 0.9919
Epoch 12/12
60000/60000 [==============================] - 8s 142us/step - loss: 0.0274 - acc: 0.9914 - val_loss: 0.0269 - val_acc: 0.9910
Test loss: 0.026897845212663196
Test accuracy: 0.991

正答率は99.1%かぁ。。。
プログラム動作中のGPU負荷は70%前後だった。
Core i5環境なんで多くを求めちゃいけないので、まあこんな感じかと。

Kerasの動作テスト

Kerasのサンプルプログラムmnist_mlp.pyを動かしてみた。
サンプルプログラムはここからダウンロードした。
https://github.com/keras-team/keras/blob/master/examples/mnist_mlp.py

さっそく実行。

PS > python mninst_mlp.py
Using TensorFlow backend.
Downloading data from https://s3.amazonaws.com/img-datasets/mnist.npz
11493376/11490434 [==============================] - 6s 1us/step
60000 train samples
10000 test samples
_________________________________________________________________
Layer (type)                 Output Shape              Param #
=================================================================
dense_1 (Dense)              (None, 512)               401920
_________________________________________________________________
dropout_1 (Dropout)          (None, 512)               0
_________________________________________________________________
dense_2 (Dense)              (None, 512)               262656
_________________________________________________________________
dropout_2 (Dropout)          (None, 512)               0
_________________________________________________________________
dense_3 (Dense)              (None, 10)                5130
=================================================================
Total params: 669,706
Trainable params: 669,706
Non-trainable params: 0
_________________________________________________________________
Train on 60000 samples, validate on 10000 samples
Epoch 1/20
2018-02-28 14:09:24.640810: I C:\tf_jenkins\workspace\rel-win\M\windows-gpu\PY\36\tensorflow\core\platform\cpu_feature_guard.cc:137] Your CPU supports instructions that this TensorFlow binary was not compiled to
 use: AVX AVX2
2018-02-28 14:09:24.920822: I C:\tf_jenkins\workspace\rel-win\M\windows-gpu\PY\36\tensorflow\core\common_runtime\gpu\gpu_device.cc:1105] Found device 0 with properties:
name: GeForce GTX 970 major: 5 minor: 2 memoryClockRate(GHz): 1.2155
pciBusID: 0000:01:00.0
totalMemory: 4.00GiB freeMemory: 3.31GiB
2018-02-28 14:09:24.928165: I C:\tf_jenkins\workspace\rel-win\M\windows-gpu\PY\36\tensorflow\core\common_runtime\gpu\gpu_device.cc:1195] Creating TensorFlow device (/device:GPU:0) -> (device: 0, name: GeForce GT
X 970, pci bus id: 0000:01:00.0, compute capability: 5.2)
60000/60000 [==============================] - 5s 79us/step - loss: 0.2453 - acc: 0.9251 - val_loss: 0.1072 - val_acc: 0.9643
Epoch 2/20
60000/60000 [==============================] - 3s 44us/step - loss: 0.1035 - acc: 0.9684 - val_loss: 0.0816 - val_acc: 0.9759
Epoch 3/20
60000/60000 [==============================] - 3s 44us/step - loss: 0.0751 - acc: 0.9776 - val_loss: 0.0755 - val_acc: 0.9779
Epoch 4/20
60000/60000 [==============================] - 3s 44us/step - loss: 0.0595 - acc: 0.9819 - val_loss: 0.0776 - val_acc: 0.9792
Epoch 5/20
60000/60000 [==============================] - 3s 44us/step - loss: 0.0498 - acc: 0.9851 - val_loss: 0.0822 - val_acc: 0.9769
Epoch 6/20
60000/60000 [==============================] - 3s 44us/step - loss: 0.0434 - acc: 0.9871 - val_loss: 0.0810 - val_acc: 0.9790
Epoch 7/20
60000/60000 [==============================] - 3s 44us/step - loss: 0.0376 - acc: 0.9886 - val_loss: 0.0834 - val_acc: 0.9813
Epoch 8/20
60000/60000 [==============================] - 3s 44us/step - loss: 0.0361 - acc: 0.9894 - val_loss: 0.0836 - val_acc: 0.9832
Epoch 9/20
60000/60000 [==============================] - 3s 45us/step - loss: 0.0290 - acc: 0.9911 - val_loss: 0.0994 - val_acc: 0.9813
Epoch 10/20
60000/60000 [==============================] - 3s 44us/step - loss: 0.0290 - acc: 0.9913 - val_loss: 0.0922 - val_acc: 0.9800
Epoch 11/20
60000/60000 [==============================] - 3s 43us/step - loss: 0.0272 - acc: 0.9920 - val_loss: 0.0937 - val_acc: 0.9815
Epoch 12/20
60000/60000 [==============================] - 3s 44us/step - loss: 0.0236 - acc: 0.9933 - val_loss: 0.0956 - val_acc: 0.9824
Epoch 13/20
60000/60000 [==============================] - 3s 44us/step - loss: 0.0237 - acc: 0.9932 - val_loss: 0.1011 - val_acc: 0.9816
Epoch 14/20
60000/60000 [==============================] - 3s 44us/step - loss: 0.0219 - acc: 0.9935 - val_loss: 0.0971 - val_acc: 0.9830
Epoch 15/20
60000/60000 [==============================] - 3s 43us/step - loss: 0.0215 - acc: 0.9941 - val_loss: 0.1062 - val_acc: 0.9810
Epoch 16/20
60000/60000 [==============================] - 3s 44us/step - loss: 0.0191 - acc: 0.9943 - val_loss: 0.1109 - val_acc: 0.9824
Epoch 17/20
60000/60000 [==============================] - 3s 44us/step - loss: 0.0166 - acc: 0.9953 - val_loss: 0.1293 - val_acc: 0.9804
Epoch 18/20
60000/60000 [==============================] - 3s 44us/step - loss: 0.0176 - acc: 0.9952 - val_loss: 0.1084 - val_acc: 0.9819
Epoch 19/20
60000/60000 [==============================] - 3s 44us/step - loss: 0.0199 - acc: 0.9952 - val_loss: 0.1123 - val_acc: 0.9815
Epoch 20/20
60000/60000 [==============================] - 3s 45us/step - loss: 0.0179 - acc: 0.9952 - val_loss: 0.1125 - val_acc: 0.9824
Test loss: 0.11250528357143812
Test accuracy: 0.9824

テストデータのAccuracyは98.24%ということか。
リソースモニターを眺めていたところ、プログラム実行中はGPUに30%程度の負荷がかかっていた。これを書いているときなんかは0~1%程度の負荷なんだけどね。

Windows10環境にTensorflow+Kerasをインストール

で、Windows10環境にTensorflow+Kerasをインストールする。
Ubuntu16とデュアルブートするやり方もあったのだけれど、漫画自炊などはWindows環境でやっているので切り替えがめんどくさいと思った。
それから、仮想環境だとDeepLearningでGPUを叩けなくなり、それはそれで困るから。
しょぼいけどGeForce GTX970が付いているので、CPU計算だけよりはマシだろう。

で、まずやったこと。

1)Windows版のPython3.6をインストール
→これはネット上に参考資料があるから割愛。
 https://www.python.org/downloads/windows/
 から64ビット版をダウンロードしてインストール。
 コツは、
 ・インストール時にCustomize Installationを選択すること。
 ・Add Python 3.6 to Pathにチェックを入れること。
 くらい。インストール先を変えたいときなんかは適宜変更するといいね。

2)PowerShellでVimを使えるようにする
→まずはVimをダウンロードして圧縮ファイルを展開。
 https://www.kaoriya.net/software/vim/
 僕はディレクトリをProgram Filesの下に移動させた。
 エイリアスの設定に手間取り、今もちょっと動きが微妙……。
 ・Pathを通す。
 ・PowerShellを立ち上げて$PROFILEの有無を確認。
  PS > $PROFILE
  C:\Users\MyUserName\Documents\WindowsPowerShell\Microsoft.PowerShell_profile.ps1
  環境によっては設定ファイルどころかディレクトリすらない。
  僕の場合もWindowsPowerShellのディレクトリがなかった。

  で、Microsoft.PowerShell_profile.ps1に下記の行を追加した。

  New-Alias vi "C:\Program Files\vim\vim.exe"
  New-Alias vim "C:\Program Files\vim\vim.exe"
  function view() {"C:\Program Files\vim\vim.exe" -R $args}

  ディレクトリの部分は、Vimを置いた場所によって変わる。

 ・スクリプトの実行権限を変更する。
  PS > Get-ExecutionPolicy
  Restricted
  と表示されたら制限がかかっている。
  PowerShellを管理者モードで立ち上げて、次のコマンドを実行。

  PS > Set-ExecutionPolicy RemoteSigned

 PowerShellを立ち上げなおして、Vimが起動するならばとりあえずは成功かな。


3)個人的な理由でPowerShell上で動くSSHクライアントをインストール
 Windows10の「設定」から「更新とセキュリティ」を選択。
 「開発者向け」で「開発者モード」のボタンを選択。
 「設定」に戻って「アプリと機能」の中の「オプション機能の管理」を選択。
 「OpenSSH Client(Beta)」を選択してインストール。

 これでPowerShell上でSSH機能が利用可能になる。
 それにしても、いつBetaが取れるんだろうか……。


4)個人的な理由で公開鍵暗号を作成
 Mac、Linux勢と同じく、まずは.sshディレクトリを作るところから。
 作ったディレクトリはユーザディレクトリの直下にできて、かつ丸見えなのに軽い違和感。

 PS > ssh-keygen

 としたらEd25519方式の鍵が生成された。
 RSA鍵にしようとすると弾かれたので、Ed25519の公開鍵をサーバ側に送って設定。
 Windows10環境だとEd25519方式がデフォルトになっているんだなっと。


5)SSHサーバに楽に接続できるようにconfigファイルを作って設置
→これをやりたいためにVimをインストールしたんだが、別にnotepadで作っても良かったのな。


6)TnsorFlowをインストールする
 GPUを使いたいので、CUDAとcuDNNのインストールは絶対必要。
 どういうわけだか自分のPCにはCUDA9.0がインストール済みだった。
 cuDNNをNvidiaからダウンロード。展開したファイルをCUDAのディレクトリに移動。

 で、TensorFlowをインストールする。

Windows PowerShell
Copyright (C) Microsoft Corporation. All rights reserved.

PS > pip3 install --upgrade tensorflow-gpu
Collecting tensorflow-gpu
  Downloading tensorflow_gpu-1.5.0-cp36-cp36m-win_amd64.whl (82.1MB)
    100% |████████████████████████████████| 82.1MB 17kB/s
Collecting tensorflow-tensorboard<1.6.0,>=1.5.0 (from tensorflow-gpu)
  Downloading tensorflow_tensorboard-1.5.1-py3-none-any.whl (3.0MB)
    100% |████████████████████████████████| 3.0MB 467kB/s
Collecting absl-py>=0.1.6 (from tensorflow-gpu)
  Downloading absl-py-0.1.10.tar.gz (79kB)
    100% |████████████████████████████████| 81kB 7.1MB/s
Collecting protobuf>=3.4.0 (from tensorflow-gpu)
  Downloading protobuf-3.5.1-py2.py3-none-any.whl (388kB)
    100% |████████████████████████████████| 389kB 3.2MB/s
Collecting numpy>=1.12.1 (from tensorflow-gpu)
  Downloading numpy-1.14.1-cp36-none-win_amd64.whl (13.4MB)
    100% |████████████████████████████████| 13.4MB 108kB/s
Collecting wheel>=0.26 (from tensorflow-gpu)
  Downloading wheel-0.30.0-py2.py3-none-any.whl (49kB)
    100% |████████████████████████████████| 51kB 6.4MB/s
Collecting six>=1.10.0 (from tensorflow-gpu)
  Downloading six-1.11.0-py2.py3-none-any.whl
Collecting html5lib==0.9999999 (from tensorflow-tensorboard<1.6.0,>=1.5.0->tensorflow-gpu)
  Downloading html5lib-0.9999999.tar.gz (889kB)
    100% |████████████████████████████████| 890kB 1.4MB/s
Collecting markdown>=2.6.8 (from tensorflow-tensorboard<1.6.0,>=1.5.0->tensorflow-gpu)
  Downloading Markdown-2.6.11-py2.py3-none-any.whl (78kB)
    100% |████████████████████████████████| 81kB 6.6MB/s
Collecting werkzeug>=0.11.10 (from tensorflow-tensorboard<1.6.0,>=1.5.0->tensorflow-gpu)
  Downloading Werkzeug-0.14.1-py2.py3-none-any.whl (322kB)
    100% |████████████████████████████████| 327kB 3.8MB/s
Collecting bleach==1.5.0 (from tensorflow-tensorboard<1.6.0,>=1.5.0->tensorflow-gpu)
  Downloading bleach-1.5.0-py2.py3-none-any.whl
Collecting setuptools (from protobuf>=3.4.0->tensorflow-gpu)
  Downloading setuptools-38.5.1-py2.py3-none-any.whl (489kB)
    100% |████████████████████████████████| 491kB 2.7MB/s
Installing collected packages: six, html5lib, wheel, numpy, markdown, setuptools, protobuf, werkzeug, bleach, tensorflow-tensorboard, absl-py, tensorflow-gpu
  Running setup.py install for html5lib ... done
  Found existing installation: setuptools 28.8.0
    Uninstalling setuptools-28.8.0:
      Successfully uninstalled setuptools-28.8.0
  Running setup.py install for absl-py ... done
Successfully installed absl-py-0.1.10 bleach-1.5.0 html5lib-0.9999999 markdown-2.6.11 numpy-1.14.1 protobuf-3.5.1 setuptools-38.5.1 six-1.11.0 tensorflow-gpu-1.5.0 tensorflow-tensorboard-1.5.1 werkzeug-0.14.1 wh
eel-0.30.0
PS >

 まあ誰にでもできる簡単インストールだった。
 では、TensorFlowが動作するのか、GPUを認識しているのかテストしてみよう。
 まずはPowerShell上でPythonを起動する。

PS > Python
>>> import tensorflow as tf
>>> hello = tf.constant('Hello, TensorFlow')
>>> sess = tf.Session()
2018-02-28 11:07:39.474339: I C:\tf_jenkins\workspace\rel-win\M\windows-gpu\PY\36\tensorflow\core\platform\cpu_feature_guard.cc:137] Your CPU supports instructions that this TensorFlow binary was not compiled to
 use: AVX AVX2
2018-02-28 11:07:39.829653: I C:\tf_jenkins\workspace\rel-win\M\windows-gpu\PY\36\tensorflow\core\common_runtime\gpu\gpu_device.cc:1105] Found device 0 with properties:
name: GeForce GTX 970 major: 5 minor: 2 memoryClockRate(GHz): 1.2155
pciBusID: 0000:01:00.0
totalMemory: 4.00GiB freeMemory: 3.31GiB
2018-02-28 11:07:39.835622: I C:\tf_jenkins\workspace\rel-win\M\windows-gpu\PY\36\tensorflow\core\common_runtime\gpu\gpu_device.cc:1195] Creating TensorFlow device (/device:GPU:0) -> (device: 0, name: GeForce GT
X 970, pci bus id: 0000:01:00.0, compute capability: 5.2)
>>> print(sess.run(hello))
b'Hello, TensorFlow'
>>>

 動作している模様。
 GeForce GTX970を認識していることもわかる。


7)Kerasをインストールする

Windows PowerShell
Copyright (C) Microsoft Corporation. All rights reserved.

PS > pip install keras
Collecting keras
  Downloading Keras-2.1.4-py2.py3-none-any.whl (322kB)
    100% |████████████████████████████████| 327kB 1.8MB/s
Requirement already satisfied: numpy>=1.9.1 in c:\users\hogehoge\appdata\local\programs\python\python36\lib\site-packages (from keras)
Collecting scipy>=0.14 (from keras)
  Downloading scipy-1.0.0-cp36-none-win_amd64.whl (30.8MB)
    100% |████████████████████████████████| 30.8MB 46kB/s
Requirement already satisfied: six>=1.9.0 in c:\users\hogehoge\appdata\local\programs\python\python36\lib\site-packages (from keras)
Collecting pyyaml (from keras)
  Downloading PyYAML-3.12.tar.gz (253kB)
    100% |████████████████████████████████| 256kB 4.6MB/s
Building wheels for collected packages: pyyaml
  Running setup.py bdist_wheel for pyyaml ... done
  Stored in directory: C:\Users\hogehoge\AppData\Local\pip\Cache\wheels\2c\f7\79\13f3a12cd723892437c0cfbde1230ab4d82947ff7b3839a4fc
Successfully built pyyaml
Installing collected packages: scipy, pyyaml, keras
Successfully installed keras-2.1.4 pyyaml-3.12 scipy-1.0.0
PS >

なんかしれっとインストールは終わったみたいだ。
僕の使っているWindows10が、あらかじめPythonのモジュール等が入っていて、インストーラーが吐くかもしれないエラーが回避されていた可能性はある。

それにしても、Bash on Ubuntu on Windowsやら、PowerShellやら、コマンドプロンプトやら、WindowsとUnixの操作体系の混じったようなシェルを使っていると、インストールから含めてわけわかんなくなってくる。

2018年2月25日日曜日

Pythonista3のSSH設定でハマったこと

もともとMacBook ProでSSHTunnelコードを書いていた自分としては、ぜひiPad上でも続きが書ける環境を作りたかったんだ。

で、Stashをインストール後、お約束のSSH鍵認証のための鍵作成に取り掛かった。

$ ssh-keygen -t rsa -b 2048

これは2048bitのRSA鍵作成のためのコマンドだ。

-H パスワードを加えると、SSH秘密鍵のパスフレーズをつけることが可能だ。
パスフレーズをつけると認証に失敗するというネット情報があるが、真偽は確かめていない。

で、公開鍵をサーバ上の~/.ssh/authorized_keysに書き込むわけなんだが。。。

すでにsshd_configでパスワード認証をnoにしていたので、僕はStashで生成された公開鍵をShellyを使ってコピペして保存していた。

で、どういうわけだかsshの認証エラーが出る。
念のためにパスワード認証を復活させると、鍵認証に失敗した場合でもパスワード認証では通信できるので、???だっだ。

結論から言うと、Stashの公開鍵にはフレーズの最後に不要な文字コードが混じっているらしい。なので単純にauthorized_keysにコピペすると認証エラーが発生する。コピペした場合と、scpした場合を比べて初めて気づいた。OS XやUbuntuでは経験したことがなかったので、原因がわかるまで5日も無駄にしてしまった。

まず公開鍵をターゲットのサーバにscpする。

$ scp ~/.ssh/id_rsa.pub hogehoge@host:~/
(サーバ上のSSHポートを変えている場合は、-P ポート番号のオプションが必要)

パスワード認証でサーバに接続して、公開鍵をauthorized_keysに追加する。
$ cat id_rsa.pub >> .ssh/authorized_keys

SSHDのサービスを再起動する。
$ sudo /etc/init.d/ssh restart

これで僕の環境ではPythonista3から鍵認証によるSSH接続ができるようになった。

しっかし文字コードに問題があったとはなあ。

Pythonista3で最初にやったこと

iOS上でPythonの開発・実行環境を提供してしまう神アプリ。
iPad、iPhone上でPythonが動いてしまうのは、アプリ開発はMac上でという常識を覆されてびっくりするよ。で、本当にPython3が動くので「すんげー!」と興奮してしまうんだ。
つい最近までのバージョンではソースコードファイルのダウンロードが禁じられていたため、Dropboxと連携させるための小細工がちょっとめんどくさそうだった。現在はデフォルトでiCloudにファイル保存ができるのでとっても便利になった。

で、最初にやったことは当然ながらStashの導入。

Pythonista3のコンソールで、次の1行をコピペして実行する。

import requests as r; exec(r.get('http://bit.ly/get-stash').text)

ダウンロードのあと、Stashのインストールが始まる。
インストールが終わったらPythonista3を一度終了してから再起動する。

Stashを便利に使うためのTipsとして、コードエディタ画面右上のレンチアイコンをタップし、区切り線の右端にある「Edit」をタップして「+」アイコンをタップ。「Custom Title」を「StaSh」にして「Done」ボタンをタップすると、レンチアイコンからすぐにStashを使うことができる。

iPadでSSHクライアントアプリを使いたい

とりあえず、MacBook ProでターミナルからサーバにSSH接続することと同じことをしたい。
Pythonista3にStashっていうシェルをインストールできるが、あれはなんつか、Pythonista3にライブラリを追加したり、ssh-keygenで認証鍵を作ったりする用途のものだと思う。理由はもう一つある……。

で、ネットで情報収集して、結果としてShellyってアプリを選んだ。
ポイントは、

■日本語の表示、入力に問題なし
■ssh-keygenは問題なく実行可能
■ソフトウェアキーボート扱いになるのかな!?ESCキーがある!!

ESCキーはsmartkeyboardになくて、vimとかでサーバのconfigを書き換えた後esc+:wqができなくて途方に暮れていたんだ。

有償アプリだけれど安価だし、安定しているから後悔はないな。

iPadPro 10.5を買ってみた

買ってみたというのは嘘が混じっているな。
Pythonista3っていうiOS上でPython開発・実行を実現するという神アプリを使ってみたかったから。

あわせてJIS配列のsmart keyboardも購入してみた。
値段は張るけれど、これは良いもの。
これでESCキーがあれば100点満点の作りなのだがなぁ、、cmdキーを1つ減らすという判断はなかったのかと思うよ。
このキーボードはファブリック製らしいけれど、キータッチは悪くない。
現行MacBook Proのキーボードよりは好もしい感じ。

iPadPro 10.5がリリースされてから、これがノートPCの代わりになるのかっていう議論がネット上に溢れてた。僕が使った感じではWebを眺めたり、メールを書く位だったら全然いけると思う。だけど、Excelで複雑な表を作ったりする使い方はどうなのかなぁ……。

あと、いい感じのテキストエディタが見つからないのはツライね。
とりあえずこの文章はPagesで書いてみた。