生成AIが「嘘」をついたとき、その責任は誰にある?
AIは今や日常の至るところで活用され、私たちの生活や様々なビジネスを支えている。この流れを加速させたのは、言うまでもなく「ChatGPT」の登場だろう。
いっぽうで、今年5月、AIの権威たちの多くが「AIによる人類滅亡のリスク低減も国際的に最優先で取り組むべき課題である」という声明に署名していることからも、捉えようによっては、多くの危険性が潜んでおり、私たちにとって“脅威”となり得る可能性も考慮する必要があるようだ。
例えば、AIがデマの情報を伝える可能性……。
ここで、過去に紹介した「世界初のロボット弁護士」について、あらためてご紹介したい。弁護士を雇う余裕のない人たちのため、弁護士の代用となるべく開発されたサービスだ。
ところがこのロボット弁護士、法律の学位を持たず、弁護士による監督もされていなかったため、「弁護士の代わりに相当する存在ではない」として法律事務所から訴えられ、計画は断念となってしまった。
何はともあれ、AIを活用したサービスが法曹界でも登場したことは、事実として受け止める必要がある。
もし、このようなAIサービスが「嘘」をついたら?
米ビジネス誌『Fast Company』が紹介したところによると、アメリカのラジオホストMark Walters氏が「ChatGPTが虚偽かつ中傷的な情報を生成し、名誉を毀損した」という内容でOpenAIを訴え、現在、金銭的損害賠償を求めているようだ。このように、法曹界と同様に正確さが求められるビジネスシーンで“AIが嘘をついた”事例が現に存在している。
では、その責任の所在はいったい誰にあるのだろう──。
「OpenAI」はChatGPTという製品に対する責任があるものの、ChatGPTが悪意を持って虚偽の情報を提供したわけではないだろう。また、AIによる名誉毀損の事例が非常に少ないため、裁判所も現状の法制度では判断が難しいらしい。
とにかく、今回の訴訟はこれからの将来に影響を及ぼすことは確かだ。