※現在、ブログ記事を移行中のため一部表示が崩れる場合がございます。
順次修正対応にあたっておりますので何卒ご了承いただけますよう、お願い致します。
CIFAR-10$ diff ../mnist/train_mnist1.py train_cifar1.py 53c53 < parser.add_argument('--number', '-n', type=int, default=60000, --- > parser.add_argument('--number', '-n', type=int, default=50000, 77c77 < train, test = chainer.datasets.get_mnist() --- > train, test = chainer.datasets.get_cifar10() CIFAR-10$変更は、たった2個所である。
CIFAR-10$ python train_cifar1.py -g 0 GPU: 0 # number: 50000 # units: [1000, 1000] # Minibatch-size: 100 # epoch: 20 結果は次回のお楽しみこのあと予想されることは、
- エラーが起きて、止まってしまう。
- とりあえず動くが、意味不明な結果がでる。
- ちゃんと動いて、それなりの学習が行われたことが分かる。
さて、どれでしょう。