機械学習

Google開発のLLMであるPaLMについて解説!PaLM2が生成AIのBardに搭載!

PaLM2
記事内に商品プロモーションを含む場合があります
ウマたん
ウマたん
当サイト【スタビジ】の本記事では、Googleの開発する大規模言語モデル(LLM)であるPaLMについて解説していきます!MicrosoftとOpenAIの連合軍に対してAI戦争で負けるわけにはいかないGoogleの最新兵器PaLMとはどんなものなのか?生成AIのBardにも搭載されたPaLM2とは!?見ていきましょう!

こんにちは!

データサイエンティストのウマたん(@statistics1012)です!

各社AIブームにおける覇権争いを繰り広げていますが、その中でもこの記事ではGoogleが開発・リリースした大規模言語モデルのPaLMについて解説していきたいと思います!

以下のYoutube動画でも解説しているので是非あわせて参考にしてみてください!

PaLMの仕組みや構成

PaLMは2022年にGoogleから発表されたモデルで「Pathways Language Model」の略です。

論文は以下になります。

論文はなんと87ページにも及ぶ超大作なのですが、正直特別革新的なアーキテクチャが登場するわけではなく、ベースとなるのはやはり2017年に同じくGoogleが発表したTransformerというアーキテクチャです。

PaLMとは端的に言うと、「とにかく大量のパラメータを持ったモデルで大量のデータを最強のマシン構成で学習させたようなモデル」なのです!

ロボたん
ロボたん
革新的なアーキテクチャじゃなくてもそんなに精度が上がるの!?
ウマたん
ウマたん
圧倒的な量が質に転換するのは最近のAI領域でよく見られるんだ!

5400億個のパラメータ

まずは、パラメータの数。

PaLMよりも前に発表されたOpenAIのGPT-3のパラメータが1700億個。

そしてMicrosoftから発表されたMegatron-Turing NLGのパラメータが5300億個。

Megatron-Turing NLGも絶妙に100億個パラメータが多いところがGoogleの意地を感じます。

ちゃんと論文には、ご丁寧に他の大規模言語モデル(LLM)と比較してどれだけPaLMがどれだけスゴイのかが記載されています。

PaLM(出典:「Scaling Language Modeling with Pathways」

7800億個のトークン

続いて学習に使ったのは7800億個のトークンであると言っています。

英語だと1単語が1トークンにあたるイメージです。

PaLM(出典:「Scaling Language Modeling with Pathways」

内訳としては、ソーシャルメディアの会話データが50%を占めていて、Webサイトや本やGithubやWikipediaなどの情報が並びます。

書籍とニュースに関しては英語オンリーであり、他の情報も多言語といいつつ英語の割合が大きいはずなのでどうしても英語の精度が高くなってしまうのは必然でしょう!

最強のマシン構成と学習の効率化

そして、大量のパラメータで大量の学習データを学習させるためにはそれなりのマシンパワーが必要です。

そこで用いられたのが6144台のTPU V4。TPUとは「Tensor Processing Unit」の略でありGoogleが開発した深層学習のためのプロセッサーです。

TPU1台でもスゴイのにそれを6144台も使用して学習しています。

これまでのGoogleが学習に使用した構成としては最大規模になります。

そしてこの学習にはPaLMの名称由来にもなっているPathwaysという学習アプローチが用いられているようで、2つのTPUポッド(複数のTPUが集まったもの)を使って並行学習をしていくような構成になっているっぽいです。

PaLM(出典:「Scaling Language Modeling with Pathways」

これにより大量のマシンパワーで学習効率を上げて学習しているんですね。

ロボたん
ロボたん
ここまで来ると、なんか大資本の暴力って感じもしなくもないね・・・
ウマたん
ウマたん
正直この領域は資本力のない企業は参入できない戦いになってきているね・・・

PaLMの出来ること・評価

ここまででPaLMの構成について簡単に解説してきましたが、続いてそんなPaLMの出来ることや性能評価について見ていきましょう!

一般性能評価

以下のようにGPT-3のモデルと比較しても各指標の精度が高いことが分かります。

PaLM
(出典:「Scaling Language Modeling with Pathways」

NLG(Natural Language Generation)は言語生成精度、NLU(Natural Language Understanding)は言語理解精度を表しています!

また、以下を見ていただくと「english_proverbs」や「logical_sequence」ではパラメータを増やすことで劇的に精度が向上していることが伺えます。

PaLM(出典:「Scaling Language Modeling with Pathways」

物理の世界で存在する量を増やしていくとある臨界点を超えたタイミングでいきなり質が向上するという現象が昨今のAI領域では散見されるのです。

コード修正ができる

PaLMでは指示に対してコードの生成やコードのバグ修正も簡単に可能です。

Githubのコードデータが全体の5%ですが、ちゃんとコーディングルールを学習しています。

PaLM(出典:「Scaling Language Modeling with Pathways」

PaLM(出典:「Scaling Language Modeling with Pathways」

やはりコード生成やコードのバグ修正などは、大規模言語モデル(LLM)の得意分野ですね!

ジョークの理解

ジョークの理解なども分かりやすいものであれば出来てしまいます。

PaLM(出典:「Scaling Language Modeling with Pathways」

そしてPaLMからPaLM2

そしてPaLMからさらに進化したPaLM2が2023年5月11日に発表されました。

Googleからの公式リリースは以下になります。

PaLM2に関して明らかになっていることは少ないですが、簡単に見ていきましょう!

PaLM2はどんなモデル?

PaLM2に関しての論文は現時点(2023年5月時点)では発表されていないのですが、先ほど紹介したGoogleの公式サイトに以下の通り記載があります。

PaLM 2 は、この研究を発展させたもので、多言語、推論、およびコーディング機能が向上した最先端の言語モデルです。

この研究というのはまさにPaLMの研究であり、おそらくアーキテクチャ上の革新的な進化はないものの、モデルのパラメータを増やし、学習データセットの質・量を増やし、人間のフィードバックによるファインチューニングをかけることなどにより、精度を向上させたことが伺えます。

ロボたん
ロボたん
OpenAIのChatGPTも人間によるフィードバックで上手くチューニングしてたもんね
ウマたん
ウマたん
そうそう人間が違和感を感じない回答をAIが返すためには人間のチューニングが結構大事なんだ!

Googleは以下のようにも述べています。

AI の開発における過去 10 年間に、私たちはニューラルネットワークを大規模化することで非常に多くのことが可能になることを学びました。~ 中略 ~
モデルのアーキテクチャと学習方法に関する最近の進歩の過程で、マルチモーダル性を獲得させる方法、人間からのフィードバックをプロセスに含めることの重要性、モデルをこれまで以上に効率的に構築する方法などが分かりました。これらはどれも有用な技術要素であり、AI の最新技術を進歩させ、人々の日常生活に真の利益をもたらすモデルを構築していくために役立ちます。

これまでAI開発のトップを走ってきたGoogleですが、Googleが2017年に発表したTransformerを皮切りに各社資本力を使ったAI開発合戦に突入し、今ではOpenAI×Microsoft連合軍にその地位を脅かされています。

これからの動向に目が離せません!

Bardへの搭載

また、BardというGoogleが開発している対話型AIサービスにもPaLM2が搭載されています。

Bard

そしてPaLM2の搭載と同時に今まで英語対応だけだったBardが日本語を含む多言語対応化され、そしてウェイトリスト方式だったのが登録さえすれば全ユーザーが使える方式に変わりました。

Googleも本腰を入れて、このChatGPTが巻き起こした対話型AIブームのシェア獲得に乗り出してきています。

開発者向けのPaLM APIの提供

またPaLM2の発表と同時に開発者向けにPaLM APIの提供もはじまりました。

こちらはまだウェイトリスト方式で全てのユーザーが利用できるわけではないようです。

PaLM2などの大規模言語モデルをベースにした生成系AIを活用した検索エンジンの運用

また、検索エンジンへのPaLM2などの大規模言語モデルの利用も試験的にはじめるとアナウンスを出しました。

以下のGoogle発表のデモを見ていただくと分かるのですが、これによりSEO領域は大きく変わりそうな予感がします。

以下のようにGoogle検索した結果に対してWebページが表示されるのではなく、まずAIによる回答が返ってきて、その上で様々な情報をマルチメディアで深堀りしていける検索画面になるそうです。

SEOAI

まずは海外で検証されてこれが上手くワークすれば世界的に展開されることでしょう!

こうなるとGoogleからのSEO流入は大きく減ることになり、SEOだけに頼っている事業者は結構まずいことになりそうな予感がします。

Google開発のLLMであるPaLM・PaLM2 まとめ

ここまでで、Google開発のLLMであるPaLM・PaLM2についてまとめてきました!

LLMについてある程度理解した後は各種モデルを具体的に手を動かしながら実装してみることが大事です。

ウマたん
ウマたん
頭の良い人たちが研究開発した知識をガンガン社会実装していこう!

各種大規模言語モデル(LLM)をPythonで利用する方法を知りたい方は当メディアが運営するスタアカの以下のコースを是非チェックしてみてください!

スタアカは業界最安級のAIデータサイエンススクールです。

スタアカトップ
【価格】ライトプラン:1280円/月
プレミアムプラン:149,800円
【オススメ度】
【サポート体制】
【受講形式】オンライン形式
【学習範囲】データサイエンスを網羅的に学ぶ
実践的なビジネスフレームワークを学ぶ
SQLとPythonを組みあわせて実データを使った様々なワークを行う
マーケティングの実行プラン策定
マーケティングとデータ分析の掛け合わせで集客マネタイズ

・BigQuery上でSQL、Google Colab上でPythonを使い野球の投球分析
・世界最大手小売企業のウォルマートの実データを用いた需要予測
・ビジネス・マーケティングの基礎を学んで実際の企業を題材にしたマーケティングプランの策定
・Webサイト構築してデータ基盤構築してWebマーケ×データ分析実践して稼ぐ

AIデータサイエンスを学んで市場価値の高い人材になりましょう!

データサイエンスやAIの勉強方法は以下の記事でまとめています。

【5分で分かる】データサイエンティストに必要なスキルと独学勉強ロードマップ!当サイト【スタビジ】の本記事では、データサイエンティストに求められるスキルとそれを身に付けるための勉強法について徹底的にまとめていきます!入門者でも、しっかりデータサイエンティストについて理解しある程度独学で駆け出しの状態までいけることを目指します。...
AIのロードマップ
【これだけ!】AI(人工知能)の勉強ロードマップを徹底的に解説!当サイト【スタビジ】の本記事では、AIを勉強するロードマップについて徹底的に解説していきます。まずは、AIの概要について理解して統計学の基本知識・機械学習の基本知識・Pythonでの実装・インフラ周りの知識などを包括的に理解していきましょう!...

ちなみに、あまり日本だとPaLMについて解説しているものがないのですが、海外だと以下の動画が分かりやすくて面白かったです。

スタビジアカデミーでデータサイエンスをさらに深く学ぼう!

スタアカサービスバナースタビジのコンテンツをさらに深堀りしたコンテンツが動画と一緒に学べるスクールです。

プレミアムプランでは私がマンツーマンで伴走させていただきます!ご受講お待ちしております!

スタビジアカデミーはこちら