機械学習

PyTorch 入門!人気急上昇中のPyTorchで知っておくべき6つの基礎知識

  • このエントリーをはてなブックマークに追加

機械学習には数多くのライブラリが存在します。例えば数値計算処理を効率的に行ってくれる「Numpy」や、データ解析の手助けをしてくれる「Pandas」などです。

また多くの方が利用している「Scikit-learn」や「TensorFlow」なども機械学習の現場では頻繁に活用されるライブラリの一つです。本記事では機械学習のライブラリとしては比較的新しく、2016年にリリースされた「PyTorch(読み:パイトーチ)」をご紹介します。

機械学習に携わっている方であれば「PyTorch」を一度は耳にしたことがある方も多いかと思います。本記事ではエンジニア向けの「PyTorchで知っておくべき6の基礎知識」をまとめました。PyTorchの基本的な概念やインストール方法、さらに簡単なサンプルコードを掲載しています。

TensorFlowやKerasと肩を並べて人気急上昇のPyTorchの基礎を身につけましょう。

PyTorchとは?

PyTorchとはPython向けのオープンソース機械学習ライブラリで、Facebookの人工知能研究グループにより初期開発されました。冒頭でも触れましたが、PyTorchは2016年後半に発表された比較的新しいライブラリです。現時点の最新の安定稼働バージョンは「0.4.1」となっており、現段階ではベータバージョンとしての位置付けとなります。

PyTorchの原型は「Torch(読み:トーチ)」と呼ばれる機械学習ライブラリです。Googleに買収されたDeepMind社もTensorFlow以前はTorchを利用していたと言われています。Torchは「Lua言語」で書かれていましたが、Pythonのサポートを行ったのがPyTorchです。

2018年10月前半に待望の「PyTorch 1.0」の開発者向けプレビュー版がリリースされました。PyTorch 1.0のゴールはONNX(Open Neural Network Exchange)とCaffe2、さらにPyTorchの3つの良い部分を一つにまとめることにあります。

多くのエンジニアが期待しているPyTorch 1.0ですが、現在はプレビュー版です。本記事では安定稼働バージョンのPyTorch 0.4を扱います。

PyTorchの人気

他の機械学習ライブラリ/フレームワークと比較してもPyTorchは後発組です。それにも関わらず初期リリースされた2016年から人気を着実に伸ばしています。下のグラフは「アメリカ」の主要な機械学習ライブラリの人気の動向を示したグラフです。データはGoogleトレンドから取得しました。

Google主導で開発しているTensorFlowは古くから機械学習分野で活用されるライブラリです。注目をすべき点は2016年から現れたPyTorch(黄色線)です。ここ直近でのGoogleトレンドが示す人気度はKerasと肩を並べる程度まで急成長しているのがわかります。

上記のグラフはアメリカが対象でした。では、日本ではどのような人気なのか調べてみました。上記の3つのライブラリに加え、日本発の「Chainer」もグラフに追加しました。

少し煩雑なグラフになりましたが、注目すべきはやはりPyTorch(黄色線)です。日本ではTensorFlowとChainerが人気の高いライブラリでしたが、直近ではPyTorchがChainerと同等の人気を示しています。

Googleトレンドのデータが全てではありませんが、PyTorchがこの近年で人気が急上昇しているのがお判りいただけたかと思います。このようにライブラリを比較すると、人気度がライブラリの良し悪しに見えてしまいますが、決してそのようなことはありません。それぞれ、ライブラリには特徴があり、どのライブラリが最も優れているといった比較は意味がありません。

PyTorchの特徴

機械学習ライブラリとして後発のPyTorchですが、なぜ人気が出ているのでしょうか。その理由の答えともなるPyTorchの特徴について3点ほどご紹介したいと思います。

特徴1 Numpyと類似した操作方法

Pythonでの機械学習プロセスで必須とも言えるライブラリ「Numpy」。本記事をご覧のエンジニアの方であれば、多くの方がNumpyの基本的な使い方を知っていると思います。

そんな方に朗報です。PyTorchでの多くの基本的な操作方法はNumpyと酷似しています。普段使っているNumpyと同じような感覚でPyTorchを使うことが可能です。後ほどPyTorchの基本操作コードをご紹介しますが、Numpyと非常に似ているのが判ると思います。

特徴2 海外を中心にコミュニティが活発

Scikit-learnやTensorFlowと並んで、PyTorchのコミュニティは非常に活発なのも特筆すべき点だと筆者は感じています。コミュニティが活発なゆえに、具体的な操作方法や実装する上での細かい部分など、参照可能なリソースが豊富です。残念ながら現時点で日本語でのリソースが豊富とは言えませんが、これから人気と共にリソースも豊富になると思われます。

また、機械学習/人工知能の最先端の研究者もPyTorchを使っているケースが増えています。これはPyTorchが他のライブラリと比較して簡潔に記述が可能な為です。機械学習の最先端の手法や論文が発表されると、その数週間後にはPyTorchでの実装例などがGitHubで公開されることも少なくありません。

PyTorchのコミュニティが活発なゆえに、様々なメリットがあると思います。

特徴3 動的な計算グラフ

PyTorchとTensorFlowを並べた時に最も特徴的に異なる点が「動的な計算グラフ」です。PyTorchもTensorFlowもニューラルネットワークを構築するライブラリですが、計算に必要となる「計算グラフ」という言葉があります。

計算グラフとはニューラルネットワークの「設計書」のようなものです。TensorFlowやKerasなどのライブラリはこの設計書を「静的」に構築してから計算処理を行います。対してPyTorchでは、この設計書(計算グラフ)を「動的」に構築する方法を採用しています。

「動的」「静的」と話をしていますが、どちらが優れているかの話ではありません。「動的」に計算グラフを構築することで、柔軟かつより複雑なネットワークを実装しやすいメリットがあります。ただし、状況に応じては学習速度が落ちてしまう側面もあるのです。

参考までにですが、静的なアプローチを「Define And Run」と呼ばれています。動的なアプローチは計算グラフを即時に実行することから「Define by Run」と呼ばれています。

このPyTorchの特徴ですが、PyTorchが初めてではありません。元々はChainerやDyNetのアプローチでした。PyTorchは多くの設計においてChainerの考え方を引き継いでいるライブラリです。

PyTorchのインストール方法

実際にPyTorchをインストールして使ってみましょう。最も簡単なインストール方法はPyTorchの公式サイトを参照することです。下記のURLをご参照ください。

https://pytorch.org/get-started/locally/

画面半ばの「START LOCALLY(ローカル環境で始める)」をご覧ください。下の図のように、ご自身の環境に応じて選択をしていくとインストールに必要なコマンドが提示されます。

PyTorchはWindows、Mac、Linux上で動作が可能です。Windowsのマシンでは「Anaconda」を利用してインストールされることをお勧め致します。

オンライン環境で試してみたい方はGoogle Colabで動かしてみるのも一つの手段だと思います。Google Colabとは研究者や教育機関へ機械学習の普及を目的としたGoogleの研究プロジェクトの一つです。インターネット上でブラウザから機械学習に必要な環境を利用することが可能です。(参照:Google Colabとは

Google Colabには機械学習に必要な多くのライブラリが事前に構築されています。TensorFlowやNumpyなどは特別な環境構築は不要です。ただし、PyTorchは事前にインストールされていません。ですので、追加でGoogle Colabへインストールを行う必要があります。

Google Colabでノートブックを立ち上げて、下記のコードを実行してください。PyTorchがGoogle Colabへ追加でインストールされます。

上の図のメッセージが確認できればインストール完了です。

PyTorchの基本操作

それでは実際にPyTorchを使ってみましょう。公式のPyTorchのサイトには多くの初心者向けチュートリアルが公開されています。ドキュメントは英語のみですが、コードを見て学習も可能かと思います。

PyTorchの特徴でも前述しましたが、とてもNumpyに類似しています。Numpyを使ったことがある方であれば、容易に習得が可能かと思います。

1. PyTorchのインポートとバージョンの表示

2. テンソルの作成

テンソルとは多次元配列(multi-dimensional matrix)です。引数で2行2列を指定しています。

3. テンソルの作成(リスト)

テンソルはPythonのリストからも作成が可能です。

4. テンソルのサイズ確認

Numpyでは配列のサイズを shape 属性で確認を行います。PyTorchでは size() のメソッドで確認可能です。

5. 乱数の生成

機械学習のプロセスでは乱数を生成する機会も多いです。Numpy同様にPyTorchも手軽に乱数生成が行えます。

6. 特別な行列の生成

単位行列や空行列の作成も可能です。またNumpyでも頻繁に使われますが、等間隔な数列も作成可能です。

7. 基本演算

テンソルの足し算、掛け算など基本的な演算をやってみましょう。しつこい様ですがPyTorchの多くのメソッドはNumpyと類似しています。

いかがでしたでしょうか?簡単ではありますが、PyTorchの最も基本となる操作方法をご紹介しました。

PyTorchを使って線形回帰

使うデータは「 Ramen Ratings 」を使いましょう。データの利用はkaggleの無料会員登録が必要です。会員登録(またはログイン後)に下記のURLからデータのダウンロードをお願います。

https://www.kaggle.com/residentmario/ramen-ratings

ダウンロードしたファイルはZIP形式となります。解凍して「 ramen-ratings.csv 」をJupyter Notebookからアクセスしやすい場所へ格納してください。

PyTorchのコーディング演習として、世界各国で売られているラーメンのレビューデータを使いましょう。ラーメンのブランド、発売国、さらに販売種別(カップラーメン・袋麺)などの特徴量をから評価を予測してみます。

あくまでPyTorchの基礎的な使い方を示すのを目的とします。線形回帰の詳しい解説は行いませんが、興味がある方はcodexaの線形回帰コースのご受講をご検討下さい。

線形回帰 入門コース

それでは、ノートブックを立ち上げてPyTorchを使ってみましょう。まずは本記事で使うライブラリのインポートを行います。

PyTorchのnnモジュールを「 nn 」としてインポートしています。また、データ処理のためNumpy、Pandas、Matplotlibも加えてインポートしました。

KaggleからダウンロードしたCSVファイルをPandasのデータフレームとして読み込みましょう。

初めて扱うデータですので、簡単なデータ分析を行います。機械学習の一般的なプロセスとして探索的データ解析(EDA)と呼ばれるプロセスがあります。本来であれば時間をかけて、データの特徴や傾向を探りますが、今回は最低限のものに留めます。

こちらのデータセットは世界各国で売られているラーメンのレビューデータとなります。それぞれの行がラーメンを示します。では、データのレコード数を確認してみましょう。

全部で2580種類のラーメンのレビューがあります。対象がラーメンと考えると、非常に規模のでかい興味深いデータセットですね。Brandはラーメンの販売元、Styleはカップラーメンや袋麺などの種別を表します。またCountryは発売されている国を示します。

ご覧の通りこちらのデータセットに最も多く含まれるのは日本で販売されているラーメンです。2位がアメリカ、3位は韓国の順です。上位はアメリカを覗くとほとんどアジア圏となりますが、下を確認するとドバイやガーナなど興味深い国も含まれています。

本記事では詳細のデータ解析は行いませんが、各自より深くデータの分岐をしてみて下さい。続いてデータの簡単な前処理を行います。データを確認するとラーメンの評価が「 Unrated (未評価)」のデータが含まれています。こちらのデータは除外しましょう。

元は2580件ありましたので、3件のUnratedのデータが除外されました。続いて、ターゲットとなる評価(Stars)のデータ型を、Pythonのオブジェクト型からfloatへ変更しましょう。

今回、教師データとして使うのは「ブランド(Brand)」「販売種別(Style)」「販売国(Country)」の3つの特徴量です。それ以外は不要ですのでデータから削除を行います

特徴量として選んだデータですが、全てカテゴリデータとなります。Brand、Style、Countryの3つの特徴量をダミー変数へ変換してあげましょう。ダミー変数とはカテゴリデータのように、もともと数値でないデータに対して0と1を使い表現した変数を指します。詳しくは「ロジスティック回帰 入門コース」をご覧ください。

では、3つの特徴量をダミー変数へ変換しましょう。ダミー変数への変換はPandasの get_dummies() の関数を使うと非常に簡単に行えます。

ご覧通りカテゴリデータだった特徴量がダミー変数(0と1)で表されています。前処理の最後として特徴量(X)とターゲット(y)にデータを切り分けましょう。

いよいよ本題であるPyTorchの出番です。今回はPyTorchを使って重回帰分析のモデル訓練を行います。すでにPyTorchのNeural Networkモジュール( torch.nn )をインポートしています。線形回帰は nn.Linear() を利用します。

 Linear() ですが、第一引数に訓練データの総数を渡します。第二引数は出力するデータのサイズです。
続いて線形回帰の損失関数と最適化関数を設定します。今回は損失関数として MSELoss() 、最適化関数として MSELoss() を利用します。MSELoss()は平均二乗誤差、SGD()は確率的勾配降下法を意味します。詳しくは「線形回帰 入門コース」をご参照ください。
SGD()の引数に lr とありますが、こちらはLearning Rate(学習率)となります。今回は0.6と設定しています。

それでは訓練データを使って線形モデルの訓練を始めましょう。訓練を実行するコードですが4つのステップに区切りました。コードのポイントは以下の通りです。コード内のコメントも併せて確認してください。

・反復処理回数(epoch)を1000と設定
・特徴量とターゲットを from_numpy() でNumpy配列からテンソルへ変換を行う
・推測値(outputs)を出力、コスト関数で実際値(targets)と比較してコスト算出
・誤差逆伝播の処理を実行

では、モデル訓練を行ってみましょう。

ご覧通り最初の50回のLoss(コスト)は 0.6180 でしたが、1000回目のコストは 0.5927 と減少してます。訓練済みのモデルに特徴量を入力して推測値を確認してみましょう。

 y_pred がPyTorchを使って構築した線形回帰モデルが出力した推測結果です。対して y がデータの正解ラベル、つまり実際の値となります。回帰モデルの評価方法には様々な方法がありますが、最も初歩的な指標の一つ「平均二乗誤差(MSE)」を算出してみましょう。

MSEが0.58となりました。MSEを端的に表すとモデルが推測した値と実際の値の誤差を指標化したものです。MSEは低ければ低いほどモデルの推測精度は「高い」ことを示します。

まとめ

如何でしたでしょうか?本記事では今時のエンジニアが知っておくべきPyTorchの6つの基礎知識をご紹介させて頂きました。

機械学習に携わっている方であれば、それぞれに好みのライブラリがあると思います。本記事の筆者はよほどの理由がない限りはKerasを使うことにしています。

ただし他のライブラリの基本的な使い方を知っておいて損はありません。それぞれのライブラリには得手不得手があり、プロジェクトの成し遂げたい目的やデータの特性に応じて使い分けるべきです。

他にもcodexa(コデクサ)では無料で機械学習関連のライブラリ、基礎統計などのコースを公開しています。機械学習をこれから学ぼうとお考えの方は、是非こちらの無料コースも受講ください!

 機械学習 準備編 無料講座  

以上となります!

  • このエントリーをはてなブックマークに追加

年収に大幅に差がつく前に

AIエンジニアへスキルアップをしませんか?コデクサでは、機械学習の初心者を対象に0から学べるコースを配信しています。

機械学習に必要な線形代数や統計基礎、さらに初歩的なアルゴリズムなどの無料コースを豊富に取り揃えています!

機械学習エンジニアへキャリアアップをしましょう!

0から始める機械学習

コメントを残す

*

CAPTCHA