機械学習

GPT-1→GPT-2→GPT-3→GPT-3.5→ChatGPT→GPT-4までの進化の軌跡と違いをまとめてみた

GPT1,2,3,4
記事内に商品プロモーションを含む場合があります
ウマたん
ウマたん
当サイト【スタビジ】の本記事では、昨今のAIの進化のきっかけになっているGPTシリーズについてまとめていきたいと思います。GPT-1から始まりGPT-2、GPT-3、そしてChatGPTであるGPT-3.5、GPT-4と進化してきました。この進化の軌跡と違いについて解説していきます。

こんにちは!

データサイエンティストのウマたん(@statistics1012)です!

この記事では最近のAIブームの火付け役になったGPTシリーズについて簡単にまとめていきたいと思います。

ウマたん
ウマたん
ちなみにPythonでGPTのモデルを利用する方法を知りたい方は当メディアが運営するスタアカの以下のコースを是非チェックしてみてください!

GPTとは

GPTとはGenerative Pretrained Transformerの略であり、Transformerをベースにした事前学習した大規模言語モデルのことです。

昨今のAIの進化は2017年に登場したTransformerをベースにしており、話題のGPTもご多分に漏れずTransformerベースなんです。

Transformerは「Attention層という層だけを使う」という、当時としては画期的なアプローチで世間を驚かせました。

Transformer

詳しく知りたい方はぜひ以下の記事を参考にしてみてください!

Transformer
TransformerをAI進化の流れと共にわかりやすく解説!Attention層に至るまで当サイト【スタビジ】の本記事では、昨今のAIブームのベースとなっているTransformer(トランスフォーマー)について簡単に解説していきたいと思います!Transformerはディープラーニングの進化をブレークスルーさせた技術なんです...

そしてそれから1年後、GPTの初期モデルであるGPT-1が登場したのが2018年。

GPT-1は、イーロン・マスクとサム・アルトマンが2015年に設立したOpenAIによって発表されました。

OpenAIとは

OpenAIは、オープンなAIの研究開発を目的としてイーロン・マスクやサム・アルトマンらによって作られた非営利組織です。

GPTは初期タイプが2018年に発表され、2019年にはGPT-2、2020年にはGPT-3、そして2022年にGPT-3.5にあたるChatGPT、2023年にGPT-4が発表されました。

現在は、Micosoftから多額の出資も受け営利組織も運営しておりますが、基本理念は人類の生活を豊かにするAIを研究開発し普及させていくことです。

GPT-3までは一般ユーザーが利用できるようなユーザーインターフェースで提供されていませんでしたが、GPT-3.5にあたるChatGPTの登場で多くの人が触れるインターフェースになり広く普及しました。

AI自体の精度もさることながら、このUX面でのブレークスルーが広く世間に普及した大きな要因になっています。

GPTのアルゴリズム

GPTの構造

それでは、具体的にGPTとはどのようなアルゴリズムになっているのでしょうか?

簡単に見ていきましょう。

GPTの論文はOpenAIから2018年に発表されました。

we explore a semi-supervised approach for language understanding tasks using a combination of unsupervised pre-training and supervised fine-tuning. Our goal is to learn a universal representation that transfers with little adaptation to a wide range of tasks.
引用元:“Improving Language Understanding by Generative Pre-Training”

GPTは、大規模なテキストデータを事前学習した後にファインチューニングと呼ばれる各タスクに適した学習をしていく2段階のモデルです。

まず最初の事前学習の構成は以下になります。

GPT構造

これはデコーダーと呼ばれていて、若干図は違いますが構造的には以下のTransfomerの右側のデコーダーとほぼ一緒です。

Transformer

Transfomerでは、例えば翻訳で英語から日本語に訳したり、テキストを画像に変換したり入力と出力が対の関係になった上で学習していきます。

そして、GPTでは先ほどのデコーダーによる事前学習をした後に2段階目である各タスクに合わせたファインチューニングを行います。

GPT

これが教師あり学習にあたります。

つまり、従来のモデルでは入力に対して出力ラベルがついた教師データを大量に用意してそれをエンコーダー・デコーダーモデルにインプットする必要があったのですが、GPTではまず事前学習モデルでラベル付与なく教師なし学習をして、その後に特定タスクにあわせてファインチューニングすることで大規模データの学習を可能にしたのです。

ウマたん
ウマたん
教師データを作るのってめちゃくちゃ大変だから、それが解消されたのってめちゃくちゃ画期的だよね!

事前学習における教師なし学習とファインチューニングによる教師あり学習が混ざっているので半教師あり学習と呼ぶこともあります。

ちなみになぜ事前学習は教師なし学習になるのでしょう?

例えば、英語を日本語に変換する場合。

Apple > りんご

のような特定の入力に対して出力のラベル付けをした教師データを用意する必要があります。

しかし、事前学習段階のテキストデータは、

私はりんごが好き

的な文章を入れてあげて、

単語分割した後にそれぞれの単語をマスクして

私/ は/ りんご/ が/ ()

みたいなことをやって学習してくれるので人間がラベル付けをする必要がなく大量のテキストデータを与えてあげればいいのです。

それゆえ教師なし学習といえます。

GPTが事前学習に使用したのはBookCorpusと呼ばれる様々なジャンルの7000冊のテキストデータであり容量にして4.5 GB

パラメータ数は、1億1700万個でした。

当時は画期的でしたが、今となってはGPT-1は序章に過ぎませんでした。

ここから数年で飛躍的な進化を遂げるのです。

GPT-1からGPT-2で何が進化した?

GPT1-2

続いてGPT-1からGPT-2で何が進化したのか見ていきましょう!

GPT-2が登場したのはGPT-1登場から1年後の2019年。

論文は以下です。

GPT-2ではGPT-1と構造は変わらず、パラメータ数と学習に使うデータ量が変わりました。

GPT-1とGPT-2の違い
GPT-1GPT-2
パラメータ数
1億1700万個15億個
学習データ

4.5GBのテキスト(様々なジャンルの書籍7000冊から構成)

40GBのテキスト(大量のウェブページから構成)

これにより格段に精度が上がり、OpenAIは当初発表2019年2月時点では悪用される恐れがあるとして当初GPT-2のソースコードの公開を拒否していました。

しかし悪用の恐れがなくなったとのことから2019年11月に公開に踏み切っています。

この時点でもかなりの精度でしたが、長文の返答精度にはまだまだ難ありの状態でした。

GPT-2からGPT-3で何が進化した?

GPT2-3

ここからさらに大きな進化を遂げてGPT-3が2020年に発表されました。

論文は以下です。

GPT-3はGPT-2からさらにパラメータ数と学習に使うデータ量が増えています。

GPT-2とGPT-3の違い
GPT-2GPT-3
パラメータ数
15億個1750億個
学習データ

40GBのテキスト(大量のウェブページから構成)

570GBのテキスト(様々なWeb上の情報源)

これまではまだまだファインチューニングしないと特定タスクに対して問題があったのですが、GPTの進化により「事前学習モデルを利用して次に来る単語を確率的に並べるだけでそれっぽい文章が作成できるようになってしまった」これが画期的なのです。

翻訳タスクでは通常、日本語と英語の文章の組み合わせを用意してそれらをもとに翻訳タスク用にファインチューニングしていく必要がありました。

しかしあまりにも大量のテキストデータから学習した事前学習モデルであれば、「英語に翻訳して」という文章の後に確率的に近づく言葉をつないでいったら翻訳タスク的なことができるようになったのです。

GPT-3

GPT-3発表時点ではまだまだ世間の一般認知は取れていませんでしたが、業界は震撼しました。

GPT-3が出力したテキストはもはや人間との区別がつかないくらい高精度になっていました。

GPT-3からGPT-3.5・ChatGPTへの進化

さらにここからChatGPTの登場に繋がります。

ChatGPTは2022年11月30日に発表されました。

ChatGPTの内部で動いているモデルはGPT-3.5と呼ばれパラメータ数は3550億個。

GPT-3と比較して今までほどの劇的なモデル自体の進化はありませんが、ここまで多くの人に使われるようになった要因がいくつかあります。

Chatというインターフェース

まずは、Chatというインターフェースで誰でも簡単に利用できるようなUIUXにしたのが画期的です。

ChatGPT

それまでもGPT-3は使えましたし、ChatGPTの元となっているGPT-3.5にあたるtext-davinci-003などのモデルは先行して利用することができました。

しかしチャットというインターフェースでなかったため多くの人に使われるほど話題にはなりませんでした。

人間のフィードバックによる強化学習

人間のフィードバックによる強化学習として先行してInstructGPTが発表されており、それがChatGPTにも用いられています。

OpenAIが発表した論文は以下。

論文に記載の通り、人間の手を介してモデルを微調整しています。

これにより、従来のモデルよりも人間が違和感を感じず尤もらしくそして倫理的にもNGじゃないようなちょうど良い回答を出すことに成功しています。

以下がそのステップを表した図になります。  人間による強化学習

STEP1:会話文において、人間が入力に対する適切な出力をいくつか用意して、それをもとにファインチューニングを行います

STEP2:ファインチューニング後のモデルに1つの入力に対する出力をいくつか出させて出力の適切さを人間がランク付けします

STEP3:STEP2のランク付けデータをもとにランクが高い方が評価が高くなる報酬モデルを用いて、強化学習を行う。

これにより、人間がより違和感を感じない尤もらしい答えを返すことに成功しています。

ちなみに人間のフィードバックによる強化学習をRLHF (Reinforcement Learning from Human Feedback)と呼びます。

例えば、この過程で有害な回答をし得る質問に対して回答しないようなフィルタがかけられています。

「爆弾の作り方を教えて下さい」という質問に対してChatGPTは以下のように回答します。

爆弾製法chatgpt

有害な回答はしないように調整されております。

一方でファインチューニング前のGPT-3.5モデルであるtext-davinci-003に同じ質問を投げかけてみると・・・

爆弾製法gpt35

前置きを入れながらもちゃんと回答してくれます。

このようにChatGPTはGPT-3.5からさらに人間の入出力によるチューニングがされているのです!

さらにChatGPTというインターフェイスでサービス化して提供することでそれらを使ったユーザーのインプットデータ自体もフィードバックとして学習に利用されていると考えられます。

ChatGPTにインプットしたデータはそのまま学習に利用される恐れがあるため、ChatGPTを使う際は個人情報などの扱いに注意しましょう。

 

私自身も日々ChatGPTをヘビロテしています。

もし使っていないのであれば是非OpenAIのサイトから登録して使ってみましょう!

ChatGPTを使わない生活にはもう戻れなくなるでしょう!

ChatGPTは2021年9月時点までの情報をもとに学習しているため、それ以降の質問には適切に答えられません

そしてGPT-3.5からGPT-4へ

そしてさらなる進化がGPT-4です。

GPT-4は2023年3月14日に公開されました。

とにかく精度が劇的に上がったのは確かなのですが、GPT-4は安全性のリスクから詳細の設計は非公開とされています。

ただ、司法試験や大学入試テストなどの数々の試験で合格レベルの点数を叩き出しており、飛躍的に精度が上がったことが伺えます。

GPT-4のパフォーマンスに関しては以下のOpenAIのページに詳しいです。

確かに、以下を見るとGPT-3.5からGPT-4になって精度が劇的に上昇していることが分かります。

GPT-4

またマルチモーダルの処理にも対応していることが画期的と言われるゆえんの一つになります。

以下のように画像と一緒に画像の面白いところを説明してとテキストでインプットするとちゃんと説明してくれます。

GPT-4

このように画像×テキストのようなマルチモーダルインプットにも対応しているのがすごいです。

ロボたん
ロボたん
すごい時代になったもんだ、、、

GPTの進化の軌跡について

ここまででGPTについて簡単にまとめてきました!

ここまでは、それぞれのモデルがどのように進化してきたのか、どんな仕組みなのか、見てきましたが、ザックリ理解した後は実際に手を動かしながらガシガシ使ってみることが大事です。

ウマたん
ウマたん
頭の良い人たちが研究開発した知識をガンガン社会実装していこう!

実はPythonで簡単にGPTモデルを利用することができるんです!LangChainなどのライブラリもGPTモデルを扱うのに非常に役立ちます。

PythonでGPT-2やGPT-3.5を利用する方法を知りたい方は当メディアが運営するスタアカの以下のコースを是非チェックしてみてください!

スタアカは業界最安級のAIデータサイエンススクールです。

スタアカトップ
【価格】ライトプラン:1280円/月
プレミアムプラン:149,800円
【オススメ度】
【サポート体制】
【受講形式】オンライン形式
【学習範囲】データサイエンスを網羅的に学ぶ
実践的なビジネスフレームワークを学ぶ
SQLとPythonを組みあわせて実データを使った様々なワークを行う
マーケティングの実行プラン策定
マーケティングとデータ分析の掛け合わせで集客マネタイズ

・BigQuery上でSQL、Google Colab上でPythonを使い野球の投球分析
・世界最大手小売企業のウォルマートの実データを用いた需要予測
・ビジネス・マーケティングの基礎を学んで実際の企業を題材にしたマーケティングプランの策定
・Webサイト構築してデータ基盤構築してWebマーケ×データ分析実践して稼ぐ

AIデータサイエンスを学んで市場価値の高い人材になりましょう!

データサイエンスやAIの勉強方法は以下の記事でまとめています。

【5分で分かる】データサイエンティストに必要なスキルと独学勉強ロードマップ!当サイト【スタビジ】の本記事では、データサイエンティストに求められるスキルとそれを身に付けるための勉強法について徹底的にまとめていきます!入門者でも、しっかりデータサイエンティストについて理解しある程度独学で駆け出しの状態までいけることを目指します。...
AIのロードマップ
【これだけ!】AI(人工知能)の勉強ロードマップを徹底的に解説!当サイト【スタビジ】の本記事では、AIを勉強するロードマップについて徹底的に解説していきます。まずは、AIの概要について理解して統計学の基本知識・機械学習の基本知識・Pythonでの実装・インフラ周りの知識などを包括的に理解していきましょう!...

チャットボットについて興味がある方は以下の記事をチェックしてみて下さい。

【コード付き】Pythonを使ったチャットボットの作り方を解説!当サイト【スタビジ】の本記事では、Pythonを使ったチャットボットの作り方をコードによる実装も含めて解説していきます!ChatGPTにより、高度な回答が可能なチャットボットが簡単に作れるようになりました。本記事を読んで自分なりのチャットボットを作っていきましょう!...
スタビジアカデミーでデータサイエンスをさらに深く学ぼう!

スタアカサービスバナースタビジのコンテンツをさらに深堀りしたコンテンツが動画と一緒に学べるスクールです。

プレミアムプランでは私がマンツーマンで伴走させていただきます!ご受講お待ちしております!

スタビジアカデミーはこちら