Q&A: 専門家はAIを止めることは不可能、あるいは望ましいと述べている

ニュース

ホームページホームページ / ニュース / Q&A: 専門家はAIを止めることは不可能、あるいは望ましいと述べている

May 17, 2023

Q&A: 専門家はAIを止めることは不可能、あるいは望ましいと述べている

di

ルーカス・メリアン著

Computerworld シニア レポーター |

OpenAIのChatGPTやGoogleのBardなどの生成AIツールが猛烈なペースで進化を続けており、信頼性や人権さえも巡る疑問が生じている中、専門家らはテクノロジーの速度を遅らせて安全性を高めることができるかどうか、あるいはどのようにすればよいかを検討している。

3月、非営利団体Future of Life Instituteは、Microsoftが支援するOpenAIが開発したAIベースのチャットボットであるChatGPTの開発を6か月停止するよう求める公開書簡を発表した。 この書簡には現在3万1000人以上が署名しており、強力なAIシステムはリスクを管理できる場合にのみ開発されるべきであると強調している。

「最終的には私たちを上回り、賢く、時代遅れになり、私たちに取って代わる可能性のある非人間的な精神を開発すべきでしょうか?私たちの文明の制御を失う危険を冒すべきでしょうか?」 手紙は尋ねた。

Appleの共同創設者スティーブ・ウォズニアック氏、スペースXとテスラのCEOイーロン・マスク氏は、他の何千人もの署名者に加わり、AIが「広範な研究によって示され、トップのAI研究機関によって認められているように、社会と人類に深刻なリスク」をもたらすことに同意した。

5月には、非営利団体AI安全センターも同様の公開書簡を発表し、AIはパンデミックや核戦争と同等の地球規模の絶滅リスクをもたらしていると宣言した。 この声明の署名者には、生成型 AI を大衆にもたらしたまさに AI 科学者や経営幹部の多くが含まれていました。

また、多くの仕事が生成型 AI に置き換えられると予想されています。 3月、ゴールドマン・サックスは、生成型AIとそのタスク自動化機能が世界中で3億もの雇用に影響を与える可能性があると推定するレポートを発表した。 そして、ブルームバーグの報道によると、IBMは5月初旬、約7,800人のポジションを補充する計画を一時停止すると発表し、バックオフィスの仕事の10人に3人近くが、5年間でAIに置き換えられる可能性があると推定したという。

過去の産業革命はタスクを自動化し、労働者を置き換えましたが、それらの変化はまた、排除されたよりも多くの雇用を生み出しました。 たとえば、蒸気エンジンが機能するには石炭が必要であり、その製造と維持には人が必要です。

ただし、生成 AI は産業革命に相当するものではありません。 AIは自ら学習することができ、人間が作成した情報のほとんどをすでに取り込んでいます。 間もなく、AI は人間の知識を独自の知識で補完し始めるでしょう。

ブーズ・アレン・ハミルトン、Responsible AI 責任者、ジェフ・シェーファー氏

ジェフ・シェーファー氏は、米国政府および軍事請負業者であるブーズ・アレン・ハミルトンの責任ある AI 責任者であり、インテリジェンスを専門としています。 Susannah Shattuck は、AI ガバナンス SaaS ベンダーである Credo AI の製品責任者です。

Computerworld は最近、AI の将来と仕事や社会全体への影響についてシェーファー氏とシャタック氏に話を聞きました。 以下はそのインタビューからの抜粋です。

生成 AI にはどのようなリスクがありますか?シャタック: 「アルゴリズムのバイアス。これらは、トレーニングされたデータのパターンに基づいて予測を行うシステムです。そして、誰もが知っているように、私たちは偏った世界に住んでいます。これらのシステムをトレーニングしているデータは、多くの場合、データのパターンを認識するようにこれらのシステムを教えたり訓練したりする方法について注意深く思慮深く考えていないと、意図せずに偏った予測を行うようにシステムを教えたり訓練したりしてしまう可能性があります。

「説明可能性。私たちが最近構築できるより複雑な[大規模言語]モデルの多くは、私たちにとって非常に不透明です。それらがどのように予測を行うのか正確には理解していません。したがって、高いレベルで動作しているときは、 -信頼や非常にデリケートな意思決定環境では、意思決定プロセスが完全に理解できない AI システムを信頼するのは難しい場合があります。だからこそ、AI システムの透明性を重視した規制が強化されているのです。

「非常に具体的な例を示します。AI システムを医療ヘルスケアのシナリオに導入し、そのシステムが患者データに基づいて医師に特定の推奨事項を作成する場合、説明可能性は次のとおりです。医師がそのシステムを喜んで信頼するかどうかは非常に重要です。

「最後に言いたいのは、テクノロジーの進化に伴い、AI リスクは継続的に進化しているということです。そして、これまで実際に対処する必要がなかった一連の AI リスクが新たに出現しています。たとえば、幻覚リスクなどです。これらの生成 AI システムは、本物のように見えるが、まったく事実に基づいていない情報を生成するという非常に説得力のある仕事をすることができます。」

将来のリスクをすべて予測することはできませんが、最も可能性が高いのは何だと思いますか?シェーファー氏: 「これらのシステムには、現在実行できるすべての機能が組み込まれているわけではありません。私たちはコンピューター プログラムを作成するために GPT-4 をプログラムしたわけではありませんが、特に他の機能と組み合わせると、それが可能になります」コード インタプリタやその他のプログラムやプラグインなどです。それは刺激的ですが、少し気が遠くなります。私たちはこれらのシステムのリスク プロファイルに取り組んでいます。リスク プロファイルは、文字通り日々進化しています。

「それは、すべてが純リスクであるという意味ではありません。安全分野を含め、純利益もあります。[AI 安全研究会社] Anthropic は、その非常に興味深い例だと思います。そこでは、非常に興味深い安全性テストを行っています。彼らは、モデルにバイアスを少なくするよう要求する作業を行っており、特定のサイズでは、単にモデルに要求するだけで、文字通り、バイアスの少ない出力を生成することがわかりました。これらのシステム自体のリスクと、これらの新たな機能から得られるまったく新しいもののリスクを管理するためです。」

では、私たちはそれをもっと良くすることを求めているだけですか?シェーファー: 「はい、文字通りです。」

これらのシステムは短期間で指数関数的に賢くなり、より速いペースで進化するでしょう。 この時点で彼らを抑制することさえできるでしょうか?シェーファー: 「私は AI の楽観主義者です。AI を抑制することは不可能であり、望ましくないことだと思います。AI 倫理の観点から、私はこれについてよく考えます。倫理とは何ですか? アンカーとは何ですか? とは何ですか?そして、私は古典的な哲学者たちに腹を立てますが、彼らは、私たちが通常倫理について考えるような、善悪それ自体に主に関心を持っていませんでした。良い人生を送りましょう.... アリストテレスはこれをエウダイモニアと名付けました。これは、人間の幸福、人間の繁栄、これら 2 つのものの一種のユニークな組み合わせを意味します。

「そして、そのレンズを AI システムに適用すると、倫理的で責任あると私たちが考えるものはまったく違ったものになると思います。ですから、人間の繁栄と幸福を最大限に生み出す AI システムについて、私たちは考慮すべきだと思います」 「責任があり、倫理的です。そして、その主な例の 1 つは、[Google の] DeepMind の AlphaFold システムだと思います。このモデルはおそらくよくご存知でしょう。このモデルは、現代医学を変革する立場にあるタンパク質の折り畳みを解読するという生物学における主要な課題を突破しました。」それが患者に重大な転帰をもたらしたなら、それは人類の繁栄に等しい。

「したがって、私たちは、これらの強力な AI システムを文字通り以前は不可能だった方法で科学を進歩させるためにどのように使用できるかということと同じくらい焦点を当てるべきだと思います。国民が日常的に経験するサービスの改善から、郵便のような退屈なものまで、あらゆるものに対応します」 NOAA が気候変動分野で行っていることと同じくらい刺激的なサービスです。

「だから、ネット上では、恐怖よりも心配のほうが多いんです。」

Susannah Shattuck 氏、Credo AI 製品責任者

シャタック: 「私も楽観主義者です。[しかし] 信じられないほど強力なテクノロジーにとって、人間の要素は常に大きなリスク源であると思います。生成 AI について実際に何が変革的なのかを考えるとき、最も変革的なことの 1 つは次のとおりだと思います。 AI システムに何かをさせるためのインターフェイスは、今ではテキストのユニバーサル ヒューマン インターフェイスになっています。以前は、AI システムは正しく構築するためのコードの作成方法を知る必要があり、AI システムに何かをさせるにはガイドする必要がありました。さて、文字通り誰でも、文字を入力したり、テキストメッセージを送信したり、テキストを話したりでき、非常に強力な AI システムと対話して、AI システムに何かをさせることができ、これには信じられないほどの可能性が秘められていると思います。

「私は多くの点で楽観主義者でもありますが、[そのシンプルなインターフェイス] は、悪意のある行為者にとっての参入障壁が信じられないほど低いことを意味します。つまり、これらのシステムの単なる誤った悪用に対する参入障壁が非常に低いことを意味します。つまり、そのため、これらのシステムの意図的および非意図的な誤用や乱用を防ぐガードレールを定義することがますます重要になると思います。」

生成 AI は仕事にどのような影響を与えるでしょうか? これは、自動化によって多くの仕事が排除されたものの、熟練した職による新しい職業が生まれた過去の産業革命のようなものでしょうか?シェーファー氏: 「私はゴールドマン・サックスなどの人々の分析をかなり真剣に受け止めています。[AI] は何らかの形で 3 億人以上の雇用にある程度の影響を与えています。それは正しいと思います。問題は、その影響が実際にどのようなものであるかということだけです。どのようにして移行し、高級化できるかについては、陪審はまだ結論を出していないと思います。これが新しい雇用を生み出すという点で、これまでの技術移行と同様であると仮定するのではなく、今すぐ計画を立てる必要があるものです。私は知りませんそれが保証されているかはわかりません。

「これは、影響を受ける雇用が異なる社会経済的タイプであり、より広範な基盤を持ち、より高いGDPへの影響を与えるという点で新しいものです。そして率直に言って、これは市場を動かし、産業を動かし、教育業界全体を動かすことになるでしょう」これまでの産業革命にはなかったやり方です。ですから、これは根本的に異なるタイプの変化だと思います。」

シャタック: 「私の元雇用主[IBM]は、当初雇用する予定だった[何千人もの]エンジニア、ソフトウェアエンジニアを雇用しないと言っています。彼らは…これらのAIシステムにより基本的には、 [より少ないソフトウェア エンジニアで]同じ種類の出力が得られます。そして、コード生成にこれらのツールのいずれかを使用したことがあるなら、これはおそらく、これらのシステムが人間を強化できる方法を示す完璧な例だと思います。ソフトウェアを構築するために必要な人数。

「そして、現在進行中のもう一つの例は、ハリウッドで作家のストライキが起こっているということです。そして私は、現在議題となっている問題の一つ、作家たちがストライキをしている理由の一つが、次のようなものであることを知っています。 ChatGPT [および他の生成 AI システム] がライターの代わりにますます使用されるようになるのではないかと心配しています。そこで、現在議論されている労働問題の 1 つは、ライターの最小限の数です。番組や映画の仕事を任されているので、これらは現在進行中の非常に現実的な労働問題だと思います。

「人間の労働者を保護するために、どのような規制が可決されることになるのでしょうか?人間の労働者とその権利、そしてこれらのツールから得られる驚くべき生産性の向上との間に緊張関係があることがますます明らかになるだろうと私は思います。」

来歴について話しましょう。 現時点では、AI が生成したものと人間が作成したものを検出する自動化された標準化された方法がないため、生成 AI システムは単純に IP や著作権を盗むことができます。 著作者のオリジナル作品をどのように保護すればよいでしょうか?シャタック:これはお客様にとって最優先のリスクであり、お客様がそれを解決するためのソリューションを探していることをご存知のとおり、Credo ではこれについて多くのことを検討してきました。 私たちにできることはいくつかあると思います。 必要に応じて、AI ワークフローに直接介入できる場所がいくつかあります。 介入する場所の 1 つは、AI システムが出力を生成する時点です。 AI システムの出力を著作権で保護された素材の世界と比較して、一致するかどうかを効果的にチェックできれば、他人の著作権を侵害する生成的な AI 出力を効果的にブロックできます。

「一例として、生成 AI システムを使用して画像を生成しており、そのシステムがおそらく世界で最も著作権を争っている画像 (ミッキーマウスの耳) を含む画像を生成した場合、自動的にWeb サイトやマーケティング資料のどこかで誤ってその出力を使用した場合に、ディズニーがあなたのために来ることを望まないため、その出力をブロックします。したがって、既存の著作権をすでに侵害していることの検出に基づいて出力をブロックできることは、ユーザーが実行できる 1 つのガードレールです。を導入することもできますが、コードに対してこれを実行するのがおそらく最も簡単です。

「次に、別のレベルの介入があり、これは透かし入れに関連していると思います。これは、生成されたコンテンツを使用するかどうかについて人間が決定できるようにする方法です。そして、AI システムがコンテンツを確実に生成したことを理解できるようになります。ウォーターマーキングを通じて、それを行う方法の 1 つは確かにありますが、一般的に、生成 AI 出力をさまざまなリスクに対してより適切に評価するためのツールを人間に提供することは、人間が自信を持って使用できるようにするために非常に重要になると思います。さまざまなシナリオで生成 AI を活用します。」

生成 AI にはどのようなリスクがありますか? 将来のリスクをすべて予測することはできませんが、最も可能性が高いのは何だと思いますか? では、私たちはそれをもっと良くすることを求めているだけですか? これらのシステムは短期間で指数関数的に賢くなり、より速いペースで進化するでしょう。 この時点で彼らを抑制することさえできるでしょうか? 生成 AI は仕事にどのような影響を与えるでしょうか? これは、自動化によって多くの仕事が排除されたものの、熟練した職による新しい職業が生まれた過去の産業革命のようなものでしょうか? 来歴について話しましょう。 現時点では、AI が生成したものと人間が作成したものを検出する自動化された標準化された方法がないため、生成 AI システムは単純に IP や著作権を盗むことができます。 著作者のオリジナル作品をどのように保護すればよいでしょうか? 」