http://www.asyura2.com/21/idletalk42/msg/305.html
Tweet |
2024年5月6日 16時00分
https://www.tokyo-np.co.jp/article/321779
対話型の生成人工知能(AI)「ChatGPT」の登場から1年あまり。人の質問に瞬時に答を返す当意即妙ぶりは、その先の、AIが人の指示がなくても動き出す社会の到来が近いことを予感させる。日本におけるAI研究の第一人者、慶応大学理工学部の栗原聡教授は自律型AIの「数年内の登場」を予測。規制と利用を巡る論議が内外で加速する中、人がAIと共生する鍵はどこにあるのか。現状と展望を尋ねた。(滝沢学)
◆ChatGPTの反応が人間っぽくなった理由は
―米新興企業オープンAIが2022年11月に公開したチャットGPTは、人のような反応を見せ、世界を驚かせた。これはAI開発史における画期的な「技術進歩」と言えるのか。
「ChatGPT自体は、その5年前に出てきた大規模言語モデル『トランスフォーマー』を利用して生まれ、使った技術は決して新しくはなかった。注目すべきは、(AIに学習させる)データの量を大幅に増やしたら、AIが急に賢くなった点だ」
◆予期せぬ性能アップ 人の脳も同じくらい複雑?
―どれくらいの量か。
「2倍、3倍、4倍と増やしても全然らちが明かず、10倍、100倍、1000倍と指数関数的に増加させ、10の23乗という量のデータを超えたらスパッと性能が上がった。世界中の研究者は誰も予期していなかった。言語を操る人の脳が、少なくともこれくらいの複雑さということなのだろう」
―――――――――――――――
栗原聡(くりはら・さとし) 1965年、神奈川県生まれ。NTT基礎研究所、大阪大、電気通信大などを経て慶応大理工学部教授、慶応大共生知能創発社会研究センター・センター長。「人と共生できる次世代AI」の研究を進める。漫画家、故・手塚治虫さんの代表作の一つ「ブラック・ジャック」の新作を、生成AIとのやりとりで制作するプロジェクト「TEZUKA2023」の総合プロデューサーを務めた。人工知能学会の副会長・倫理委員会委員長。著書に「AI兵器と未来社会 キラーロボットの正体」(朝日新書)など。
―――――――――――――――
◆「AIの民主化」進行 誰でも使えて懸念も増大
―3月に欧州連合(EU)や国連総会でそれぞれ、世界初の包括的なAI規制法案が可決されたり、安全性重視などを各国に求める決議案が採択されたりした。日本も4月19日に初の指針「AI事業者ガイドライン」を公表した。なぜ今これほどリスク管理が注目されるのか。
「生成AIのように、(専門家でなくても)誰もがAIを利用できるようになったことが、規制の必要性を高めた理由の一つ。『AIの民主化』が進んだ。一方、AIの開発はグーグルやアップルなど米巨大IT企業が独占しており、民主主義とはほど遠く、開発側が独裁的に悪用できる余地がある」
「企業の営利に振り回されるのは間違いとの考えや、(開発側だけでなく利用者側も)AIを悪用し得る可能性が高まったとの認識も広がった。米大統領選で生成AIによるフェイク拡散が問題となり、中東で続く戦闘ではAIドローンといったAI搭載兵器が使い放題だ」
◆次世代AIはもう「道具」ではなくなる
―第4世代と呼ばれる自律型AIの実現はいつ頃か。
「数年のうちに実現する可能性がある。ChatGPTのような生成AIの登場で、われわれは自律型AIを作る入り口に立ったと言える」
―――――――――――――――
第4世代AI AI研究は1960年代、80年代の2回のブームを経て、現在は画像や音声の認識精度を飛躍的に高めた「第3世代AI」に進化。人の脳の神経細胞を模したニューラルネットワークを使いコンピューターに大量のデータを学習させる革新的技術、ディープラーニング(深層学習)が2010年代から成果を上げた。チャットGPTも深層学習を応用して開発された。「第4世代AI」は、高い自律性と汎用(はんよう)性を持ち人間と意思疎通できるレベルが目標。米企業家のイーロン・マスク氏は4月、人より賢いAIが2年以内に登場するとの予測を述べた。
―――――――――――――――
―次世代AIは、現状の「道具としてのAI」と何が違うのか。
「(学習させて人が使う)道具のままなら、AIは結局、使う人の想像力や能力、つまり人間の自助の範囲を越えられない。それでは、複雑な社会問題はもう解決できないかもしれない。そこを突破できる期待があるとするなら、人と同じように自分で考えるAIが出てくれば、それは道具ではなくなる。AIとしてどう問題解決をすればよいかと、きっと考えるようになる。ドラえもんのような(自ら考えて動く)AIと一緒に考えることで、これまでだったら絶望的に見えた社会状況が少し変わるかもしれない」
―ところで、AIには偏見やバイアスがあるのか。
「AIに学習させるデータに偏りがあるので、偏ったものができてくる。データの偏りは避けられない。ただ、われわれには知恵があるので、出来上がったAIに明らかに偏見があると分析できれば調整はできる。そういう研究は盛んになっていて、できる限り偏見をなくすように調整はできる」
―――――――――――――――
AI事業者ガイドライン 日本政府が「AIの安全安心な活用が促進されるよう、わが国におけるAIガバナンスの統一的な指針を示す」ため、国内外の議論も踏まえて取りまとめ、4月19日に公表した。対象はAI関係の全事業者。開発者、提供者、利用者の3区分に分け、AIがもたらす社会的なリスクや懸念の緩和と、技術革新の促進を両立させるため、各事業者の対応事項を整理した。各事業者共通の10の指針として、「人間中心」の理念のもと、「プライバシー保護」「公平性」確保などが示されている。AIの活用で目指す社会と取り組みをまとめた「本編」と、具体例や本編の詳細な解説を記した「別添(付属資料)」の計約190ページで構成される。
―――――――――――――――
―人は次世代AIと共生する必要はあるか。
「人間同士の対話だけでは、地球温暖化も戦争も、貧困問題も解決できていないのが現状だ。しかし、次世代AIは人間の想像を超えた解決策を提示するかもしれない。最初は信用できないかもしれないが、AIの意図をくむなど信頼感を醸成し、示された選択肢を検討できるようになれば、地球規模の難題解決に活用できるかもしれない。日本は、そこに期待したい」
【関連記事】話題のChatGPT 自然な言葉ですぐ回答できるのはなぜ? 今までのAIと違うの?<Q&A>
【関連記事】デジタル化が自由の危機に?国家を超える新たな権力の存在 山本龍彦・慶応大大学院教授に聞く
▲上へ ★阿修羅♪ > 雑談・Story42掲示板 次へ 前へ
最新投稿・コメント全文リスト コメント投稿はメルマガで即時配信 スレ建て依頼スレ
▲上へ ★阿修羅♪ > 雑談・Story42掲示板 次へ 前へ
スパムメールの中から見つけ出すためにメールのタイトルには必ず「阿修羅さんへ」と記述してください。
すべてのページの引用、転載、リンクを許可します。確認メールは不要です。引用元リンクを表示してください。