2時間インタビューを受けるだけで本人そっくりのレプリカができるAIテクノロジーと倫理
AIからのインタビューを2時間うけることによって、自分の考えをコピーした「デジタル・レプリカ」をつくることができる。
そんな技術を、スタンフォード大学などの研究チームが完成したことを、Mit Technology Reviewが報じています。
インタビューは子供のときの思い出や仕事のキャリア、移民政策などといった政治に対する考えなど、さまざまな話題について聞いてきます。その結果をもとに、価値観や好みを反映した「デジタル・レプリカ」ができあがります。
研究の参加者とそこから生まれた「レプリカ」、それぞれが性格テスト、社会調査、論理ゲームなどを受け、その結果を比較したところ、85%の類似性が確認されたといいます。
現在はこれらのレプリカを「シミュレーション・エージェント」として活用することを目的としているといいます。
社会科学などの研究者が人間を相手にするには高額な費用がかかったり、倫理的な問題がある研究を取り組みやすくします。有名な実験ではありながら、倫理的には問題があるとされる「スタンフォード監獄実験」などもそのひとつかもしれません。
また、こうした技術の発達はシミュレーションだけではなく、生成AI全体の発展にも寄与するでしょう。
たとえば、これを選挙に活用すれば、候補者の「レプリカ」を作成し、有権者は直接、政策や理念を聞いたり、対話をしたりすることができます。あるいは経営者は、自身の分身をつくって、それから直接指示ができるようになるかもしれません。
一方で、リアルなディープフェイクを簡単につくりやすくなるなど、その悪用が心配されます。
生成AIについては、倫理的な縛りをどう設計するのかという対応が、技術の発展に追いついていない面もあります。メディアもそうした視点から議論を加速させていく必要があります(瀬)