AIに調査報道の助手が務まるのか、実際にやってみたら……
あふれるニュースや情報の中から、ゆっくりと思考を深めるヒントがほしい。そんな方のため、スローニュースの瀬尾傑と熊田安伸が、選りすぐりの調査報道や、深く取材したコンテンツをおすすめしています。
きょうのおすすめはこちら。
I Used ChatGPT as a Reporting Assistant. It Didn’t Go Well(ChatGPTを取材の助手に使てみたんだけど、う~ん)
当然の結果だよ、という人もいるかもしれませんが、新しい道具は検証しなければ能力の限界も分からず、使い勝手を向上させることもできません。
というわけで、「The Markup」という非営利の報道機関で調査報道に取り組むデータジャーナリスト、ジョン・キーガンさんが、生成AIのChatGPTを調査報道のための助手として使うことができるかという「時間のかかる実験」をしたそうです。
なんでも、今年のピューリッツァー賞の最終候補者45人のうち5人が「研究、報告、または応募作品の発表」にAIを使用していたのだとか。いまや報道にもAIが活用される時代です。データジャーナリズムの分野ではどうでしょうか。
実験のために用いたのは、去年2月にオハイオ州で起きた列車の脱線事故。ChatGPTに分析させることができる様々なデータがあるだろうという想定だったようです。
実際に、キーガンさんとChatGPTとのやりとりが公開されているので、そちらをちょっと覗いてみましょう。
キーガンさん、最初に念を押します。プロンプト(AIへの質問のテキスト)の冒頭で、「何かを尋ねられたら、出典を引用し、ウィキペディアのようなサイトではなく、常に最も権威のある情報源(例えば政府機関)を使うことが肝心だ」と伝えました。
するとChatGPTくん、「Understood(もちろんですよ!)」と勢いよく答えたものの、「脱線した場所を中心とした地図を作って」とお願いしたところ、どうも妙に線路から外れたところにピンが立っています。
要約するとこんな感じ。いやあ、見ているだけで疲れるやりとりですね。結局、数値のありかを人間側が示さなければ正確な地図の作製はできませんでした。
これはChatGPTを使っての印象で、なにか根拠となる統計があるわけではありませんが、最近のChatGPTは直接答えを教えるのではなく、いくつかのソースのありかを示すような振る舞いをするようになった気がしています。
例えば「〇〇社長の年収を教えて」と入力すると、初期のころは報道をソースにして金額を具体的に答えていましたが、不正確な答えが出るとまずいということなのか、最近では「最新の情報を知りたい場合は、会社の公式の報告書や本人の声明、または経済ニュースの記事など、信頼できる情報源を参照することが重要です」などと答えるようになりました。
もしかしたらキーガンさんのプロンプトも、
「事故現場の座標はどうやったら調べられるのか」
「ではそのサイトから数値を引っ張ってきて」
「その数値をもとに地図を作って」
という流れであれば、スムーズにいったのかもしれません。
こんな感じなので、調査報道にAIを使うのはちょっと心配。とはいえ、AIが全く役に立たないかというとそうでもないようです。この実験の途中で、脱線事故の地図を作成するための簡単なPythonコードを生成したとのこと。こうしたプログラミングのコードを書くことには長けているので、そうした使い方なら有用なようです。
ChatGPTをはじめとしたAIはまだ進化の途中というイメージですが、使い方を一歩間違えれば危険な存在にさえなりうるもの。向き合って検証を続けることも大事かと思います。(熊)