日本語GPT2をお試し

GPT2お試しの記録です。

■インストール

下記のプロジェクトにて詳細を公開して下さっていますので、使わせていただきました。

詳しいインストール方法は記載されている通りで問題なく完了できますので、

ここでは少し補足事項を残しておきます。

※今回はgpt2ja-mediumというモデルを使用しています。他にもsmallとlargeが公開されているようです。(2021/06/24時点ではlargeは一時公開停止中)

■ソースコードの編集

インストール完了後、動かしてみて下記のエラーが出る場合は import文の記述を変更してください。

ここではgpt2-generate.pyでエラーが出ていますが、同様にsampling.pyとmodel.pyも修正します。

※CPUでも実行できるのでGPUがないPCでも試せます。

■実行

–modelで使用するモデルのディレクトリ、–num_generateで生成する文章の数を指定します。

出力された文章はこんな感じです。 内容はともかく、怖いぐらい日本語らしいですよね。

この様に複数行の文章が出力される場合もあれば、1行のみという場合もあるようです。

 

また、contextオプションで、文脈を指定できます。

語句の係り受けや句読点、語尾など、文法的には目立つ問題は無いように見えます。

素晴らしすぎる。