オフィス鴻

ChatGPT(使用原則の遵守)

2023年08月19日

「イノべーションの解」や「イノベーションのジレンマ」などでも一部触れられていますが、現在の生成AI技術は、社会システム自体をも変革する破壊的イノベーションを持ち合わせている面があると感じます。一方で、科学技術を人間の尊厳を守る方法で使用すること、つまり人材不足の解消、新ビジネス、不正行為・悪用の防止だけではなく、倫理的側面からのアプローチと社会システム変革への強い意思の共有が大切でしょう。

AI倫理に関して東京大学の横山教授は日本経済新聞への寄稿で、「多目的開発により、将来の技術展開への見通しが難しい」こと、「アセスメント(影響評価)ができないくらい、開発スピードが速い」こと、「世界中でほぼ同時に、直接経験できる技術である」という特徴から、生成AIが制御困難(暴走、反倫理的な使用)とならないよう、政府による規制が必要と考えられている点にあります。G7でも、①法の支配、②適正な手続き、③イノベーション機会の活用、④民主主義、⑤人権尊重の5原則が合意されました。

具体的には、ハーバード大学の研究チームが8項目のグローバルガイドラインとして、「個人のプライバシー」「説明責任」「安全性と第三者セキュリティ」「透明性と説明可能性」「公平性と無差別」「人間による制御」「専門家の責任」「人間の価値の促進」を示しています。現在は社会実験段階から実用化への移行期だと思われますが、いずれ変数Xの変容(推測統計学)が進めば、教育現場(学習)・研究現場(技術開発)などのコミュニティ内でも、我々自身が新たな合意形成(社会的シェア)を倫理的側面から後押ししていく仕組み作りや覚悟などが必要になるのかも知れませんね。