AI開発を一時停止せず、倫理を優先する

データとAIのビルドを表す画像

生成AIシステムが公共領域に導入されたことで、世界中の人々が、まだ検討していなかった新たな技術的可能性、影響、さらには成果にさらされました。ChatGPTのようなシステムのおかげで、ほとんどの人が高度なAIモデルを使用できるようになりました。これらのモデルは、以前のバージョンのAIのようにパターンを検出し、データを磨き、推奨を行うだけでなく、それを超えて新しいコンテンツを作成したり、オリジナルのチャット応答を開発したりすることもできます。

AIのターニングポイント

倫理的に設計され責任を持って市場に導入されれば、生成AI機能は今までになかったような機会に対応し、ビジネスと社会の両方に利益をもたらします。より良いカスタマー・サービスを生み出し、医療システムや法務サービスを改善することができます。人間の創造性を支援および強化し、科学的発見を促進し、気候変動の課題に対処するためのより効果的な方法を動員することができます。

私たちは、AIの開発、デプロイメント、利用、そして人類の進歩を加速させる可能性において、クリティカルな変曲点にいます。しかし、この大きな可能性にはリスクが伴い、偽のコンテンツや有害なテキストの生成、プライバシー漏洩の可能性、バイアスの増幅、これらのシステムの運用方法に対する透明性の大幅な欠如などがあります。だからこそ、AIが労働力、民主主義、創造性、そして人間と地球の全体的な幸福の未来にとって何を意味するのかを疑うことが重要なのです。

新しいAI倫理基準の必要性

一部の技術リーダーは最近、新しい倫理基準を作成するために、より強力なAIシステムのトレーニングを6か月間一時停止するよう要求しました。この手紙の意図と動機は間違いなく良いものでしたが、根本的なポイントを見逃しています。これらのシステムは、ソリューションと同様に、今日私たちのコントロールの範囲内にあるということです。

責任あるトレーニングと、AIパイプライン全体にわたる設計による倫理アプローチ、そしてAIをめぐる複数の利害関係者の協力によってサポートされることにより、これらのシステムは悪化するのではなく、改善されます。AIは常に進化を続けるテクノロジーです。したがって、現在使用されているシステムと明日オンライン化されるシステムの両方にとって、トレーニングはAIを構築するための責任あるアプローチの一部でなければなりません。責任あるAIを優先するために一時停止する必要はありません。

AIの倫理基準とガードレールについて真剣に考える時が来ました。次に進む必要があります。IBMは、全社的なAI倫理フレームワークとともに、業種初のAI倫理委員会を数年前に設立しました。当社は、業種・業務における立場だけでなく、他者とのコラボレーションを優先するマルチ・ステークホルダー・アプローチを通じて、現在および将来のランドスケープを検討することにより、このフレームワークの強化と改善に常に努めています。

IBMの委員会は、明確なポリシーを設定し、AIライフサイクル全体を通じて説明責任を推進する、責任ある集中型のガバナンス構造を構築しながらも、IBMのビジネス・ニーズをサポートするために柔軟かつ柔軟に対応しています。クリティカルなことであり、従来のAIシステムとより高度なAIシステムの両方で実現してきました。繰り返しになりますが、将来のAIシステムのリスクに焦点を当て、現在のAIシステムを無視することはできないからです。AIの進化に合わせて、価値観の調整とAI倫理活動を継続的に進化させる必要があります。

こうしたシステムを構築するための技術的アプローチも、協力と監視に加えて、倫理的配慮によって最初から形成される必要があります。たとえば、AIに関する懸念は、多くの場合、「ブラックボックス」の内部で何が起こっているのかを理解していないことが原因です。そのためIBMは、モデルの公正さと偏りを監視し、使用されたデータの出所を把握し、最終的にはより透明性が高く、説明可能で信頼性の高いAI管理プロセスを提供できるガバナンス・プラットフォームを開発しました。さらに、IBMのエンタープライズ向けAIストラテジーは、AIライフサイクル・プロセス全体にわたって信頼を組み込むアプローチを中心としています。これは、モデル自体の作成から始まり、システムのトレーニングに使用するデータにまで及び、最終的には、オープン・ドメインではなく、特定のビジネス・アプリケーション・ドメインでのモデルのアプリケーションにまで及びます。

そうは言っても、何が起こる必要があるのでしょうか?

まず、私たちは民間企業全体の他の人々に、倫理と責任をAI課題の最優先事項に置くよう促しています。AIのトレーニングの全面的な一時停止と、業種のAI倫理への取り組みへの投資の優先順位を下げているように見える既存のトレンドは、さらなる被害と打撃につながるだけです。

第二に、官公庁・自治体はAIをテクノロジーレベルで幅広く規制することを避けるべきです。そうでない場合、有益なイノベーションを妨げ、将来性も持たない特定のモバイル・アプローチになることになるためです。私たちは、社会的危害のリスクが最も高いAIのユースケースに最も強力な規制管理を適用する、スマートで精密な規制を採用するよう世界中の議員に促しています。

最後に、AIシステムとやり取りするデータのプライバシーを企業がどのように保護しているかについては、依然として十分な透明性が確保されていません。だからこそ、米国には一貫した全国的なプライバシー法が必要なのです個人のプライバシー保護は、州境を越えただけで変わってはなりません。

私たちの社会における最近のAIへの注目は、大きな力には大きな責任が伴うという過去のストーリーを思い出させます。AIシステムの開発を一律に停止するのではなく、協力の障壁を取り払い、会議室で生まれたアイデアからトレーニング、開発、実社会へのデプロイメントに責任あるAIの進歩のために協力し続けよう。その責任は単純に高すぎるのに、私たちの社会はそれほど簡単に対応すべきではありません。

 
次のステップへ

AI開発ライフサイクル全体にわたる機能にワンストップでアクセスできます。使いやすいインターフェース、ワークフロー、業界標準のAPIやSDKを利用して、強力なAIソリューションを構築できます。

watsonx.aiの詳細はこちら デモの予約