1. TOP
  2. ブログ
  3. GoogleなどのAI関連企業が集結し設立させた「Frontier Model Forum」とは

GoogleなどのAI関連企業が集結し設立させた「Frontier Model Forum」とは

「2001年宇宙の旅」のHAL9000や「ターミネーター」のスカイネット。SFの世界では、高度に進化したAIが、人類を滅ぼそうとするのが相場になっています。
2023年の現代、生成系AIが登場し、まるで人間が応答するような文章を作成するまでにAIは発達してきました。そろそろ「人類の敵」になりかねないAIに備えた方が良いのではないでしょうか?
今回は、AIの社会的課題とAI技術を促進する「Frontier Model Forum」について、まとめていきましょう。

この記事でわかること
 ・「Frontier Model Forum」の概要について
 ・AIに対するアメリカ政府の牽制
 ・なぜMetaやAppleは「Frontier Model Forum」に参加していないのか?

GoogleなどのAI関連企業が発足させた「Frontier Model Forum」の概要

Google・Microsoft・OpenAI・Anthropicなど、AI関連のサービスを提供している各社は、2023年7月に「Frontier Model Forum」の設立を発表しました。
このForumは、「AIの安全性のベストプラクティスを特定し、社会的課題へのAI技術の利用を促進する」ことを目的とした業界団体です。
とは言え、どんな団体なのかイマイチよくわかりませんよね?少し噛み砕いていきましょう。
 
ベストプラクティスとは、最良・最前の手法を意味しますが、ここでは「業界標準」ぐらいの意味で捉える方が良いでしょう。
これまで各社が独自に開発を進めてきたAI技術ですが、このまま無制限に進めてしまうと近い将来、さまざまな危険が生じる恐れがでると考えられています。そこで、一旦安全性に関する業界標準の見解をまとめ、ルール化していきましょう。というのが目的の最初の部分で書かれています。

社会的課題に関しては、非常に幅広いユースケースが考えられます。人間と比べはるかに速いスピードで膨大なデータを処理し、課題に対する効果的な解決方法をAIが提案してくれます。
この団体では、このような人類にとって役立つ場面にAIを積極的に活用することも目的としています。

設立メンバーの一つであるGoogleは具体的に4つの目標を掲げています。

1.AIの安全性研究を推進し、フロンティアモデルの責任ある開発を推進することで、リスクを最小限に抑え、独立した機能と安全性の標準化された評価を可能にする。

2.フロンティアモデルの責任ある開発と展開のためのベストプラクティスを特定し、テクノロジーの性質・機能・限界・影響を一般の人々が理解できるよう支援する。

3.政策立案者・学者・市民・社会・企業と協力し、信頼と安全のリスクに関する知識を共有する。

4.気候変動の緩和と適応、がんの早期発見と予防、サイバー脅威との戦いなど、社会の最大の課題に対処できるアプリケーションを開発する取り組みを支援する。

・・・何が書いてあるか一読して理解できる方はかなり優秀な方でしょう。ここも少しずつ、わかりやすい表現に翻訳していきましょう。

「フロンティアモデル」は一般的には「最先端モデル」という意味ですが、ここでは多少意味合いが異なります。現時点での最先端モデルのことではなく、将来登場するはずの「非常に優れた性能を持つ超AI」を指していると思われます。冒頭で紹介した、SFに登場するようなAIをイメージすると良いでしょう。

そうすると1の冒頭は、「安全面に注意しながら、SFに登場するような超AIの開発と利用を進める」と読めます。後半は重ねて「安全面に十分留意する」ぐらいに読み解けば良いでしょう。

ここまでで、この業界団体がなぜ設立されたのかがぼんやりと理解できます。

ここ数年、AIが急速に進化し、一般の方の目に見える形での利用が進んでいます。それに伴い、AIに脅威を感じる人も増えているでしょう。
業界としてはこのような懸念を払拭し、安全性を自ら担保する必要が生じてきた訳です。

一番わかりやすい形で、この団体の目的を文章化するならば「AI開発に外からの圧力でブレーキがかからないよう、安全性を確立しアピールすること」が最も適切ではないでしょうか。

2の前半は「超AI開発にあたり、業界標準を規定する」ことであり、これにより各社が勝手に危険なAIを生み出さないように制限することに繋がります。
さらに、AIが危険ではないこと。できることに限界があることなど、「無知なユーザー」にアピールしていくとしています。

無知だからこそ不必要に怖がるのであって、万が一にもそのような声が超AI開発の足枷になってはならない。そのために教育・アナウンス・アピールにも力を入れて取り組む。と宣言しているように思えます。

3も同様の内容です。広く産官学民と協力することで、開発をクローズドにせず、安全性を確保すること。
4は、具体的なAIの活用方法を明記することで「とても有用だから、開発にブレーキをかけてはならない」という思惑が見えます。

ただし、Googleやこの団体自身が「気候変動の緩和と適応」に興味があるかどうかは不明です。そのため、自ら取り組むのではなく、あくまで「支援する」という表現にとどまっています。
とりあえず、一般受けしそうで人類の役に立ちそうなテーマを例示しただけなのかも知れません。

まとめると、近い将来実現するだろう超AIの開発を進めるにあたって、危険性をできる限り排除することを広くアピールするための業界団体を立ち上げ、さらに政府などの、AIに脅威を感じる外部団体に邪魔される前に、自分たちで一定の枠組みを作り上げることを目的としていると考えられます。*注1

AI関連企業に対するアメリカ政府の牽制

実はこの団体の立ち上げに先立って、アメリカ政府からAI関連企業に対して牽制がありました。2023年5月にバイデン大統領は、国内のAI開発企業を召集し、AIに対して責任を持つことや、信頼できる倫理的な開発を進めることを促しました。

これは、国内で高まっている進化しすぎたAIの危険性に対する懸念に対して、政府として応えるために実施されたものと思われます。
召集されたのは、Google(Alphabet)・Anthropic・Microsoft・OpenAIのCEOです。まさに、今回話題の団体を立ち上げた中核メンバーとなっています。

ChatGPTの登場とその性能が広く世間に知られるようになり、便利さと同時に脅威を感じる人も増加しています。実際、AIの安全性について研究する非営利団体である「Future of Life Institute」が、2023年3月にAIの開発を半年間停止するよう呼びかけました。
この呼びかけに応じて署名した人物の中には、テスラ社のイーロン・マスク氏やAppleの共同創業者であるスティーブ・ウォズニアック氏なども含まれています。

GoogleでAI開発をリードしてきたジェフリー・ヒントン博士は、AI開発に一定の規制が必要だと表明しています。また欧州議会では、ChatGPT対策タスクフォースを立ち上げるなど、AI開発に対する規制や懸念を表明する動きが活発化しています。

2023年5月には、AI開発に取り組むエンジニアや関連企業のCEOなど、実際に最前線で活躍するメンバーが「AIによる人類絶滅リスク」という声明を発表しました。このことは、一般のAIに詳しくない人が抱える漠然とした不安とは一線を画します。
ただし、この声明にはApple・Amazon・Microsoft・Metaなどの企業は署名をおこなっていません。先ほど登場したイーロン・マスク氏も、現時点で署名に参加してないようです。
企業によって、また声明の内容によって多少スタンスは異なるようです。*注2

なぜMetaやAppleは「Frontier Model Forum」に参加していないのか

こうして立ち上げられた「Frontier Model Forum」ですが、AI開発と利用に力を入れているはずのAppleやMetaは参加していません。これは企業文化や開発に対するスタンスの違いが最大の理由でしょう。

Appleは新技術の開発に関して、恐ろしくクローズドな姿勢を続けている企業です。かつては、クローズドを貫くために独自規格を採用することが多く、時にはそれが理由でユーザーの利便性が犠牲になっていました。
iPhoneに採用され続けたライトニングなども、その代表的な例です。ようやく外部からの強い圧力によって、iPhone15では標準規格であるUSB-Cに変わることとなりました。

一方のMetaは、ハッカー気質が高い企業であり、技術開発に関してはオープンソース化して広く知識を共有し、その成果を自社サービスに活用するという伝統があります。そのため自由度が高く、開発スピードを加速することが可能ですが、悪しき目的を持つ人物にも情報が共有されてしまう危険がありました。

非常に高度に発達したAIは、悪用されてしまうと国家レベルの脅威につながる可能性があります。となると、広く一般にコア技術を公開し共有する手法には、一定の規制をかけることも致し方ないでしょう。
「Frontier Model Forum」は「規制・制約」ありきであり、Metaはできる限り自由にやりたい企業ですので、基本的なスタンスの違いからスタート時点では参加を避けたのでは無いかと思われます。

今回のAppleとMetaに関する考察は、あくまで私個人の推察であり、それぞれの企業がこのような内容をアナウンスしている訳ではありません。しかし、2社の社風や歴史について多少なりともご存知の方であれば、納得いく内容ではないでしょうか。

【まとめ】
超AIが現実に開発できるかどうかについては、現時点で全くの未知数です。しかしChatGPTの成功が示すように、十分なリソースを投入することでAIは確実に進化することが分かっています。
私たちは今、かつて映画の中だけでしか見ることができなかった、HAL9000やスカイネットが登場する直前の世界を生きているのかもしれません。
できれば人類の脅威となるAIではなく、日本の誇るドラえもんのようなAIの登場を期待したいものです。

建築・土木業向け BIM/CIMの導入方法から活用までがトータルで理解できる ホワイトペーパー配布中!

❶BIM/CIMの概要と重要性
❷BIM/CIM導入までの流れ
❸BIM/CIM導入でよくある失敗と課題
❹BIM活用を進めるためのポイント
についてまとめたホワイトペーパーを配布中

■参考文献

注1
IT media NEWS 「AIの4社(Anthropic、Google、Microsoft、OpenAI)、安全なAI目指すフォーラムFMF立ち上げ」
https://www.itmedia.co.jp/news/articles/2307/27/news087.html

Google ”A new partnership to promote responsible AI”
https://blog.google/outreach-initiatives/public-policy/google-microsoft-openai-anthropic-frontier-model-forum/

注2
IT media NEWS 「OpenAIやDeepMindのCEOやトップ研究者ら、「AIによる人類絶滅リスク」警鐘声明に署名」
https://www.itmedia.co.jp/news/articles/2305/31/news104.html

「「GPT-4より強力なAIの開発を直ちに停止せよ」──公開書簡にマスク氏やウォズニアック氏が署名」
https://www.itmedia.co.jp/news/articles/2303/29/news180.html

「米バイデン政権、OpenAIなどAI関連4社のCEOを招き「責任あるイノベーション」促す」
https://www.itmedia.co.jp/news/articles/2305/05/news041.html

    ホワイトペーパーフォームバナー

    【DL可能な資料タイトル】

    • ・プログラムによる建築/土木設計のQCD(品質/コスト/期間)向上
    • ・BIM/CIMの導入から活用までの手引書
    • ・大手ゼネコンBIM活用事例と建設業界のDXについて
    • ・デジタルツイン白書
    • ・建設業/製造業におけるデジタルツインの実現性と施設管理への応用

    詳細はこちら>>>

    PAGE TOP