
現代社会において、インターネット上に流れる偽情報や誤解を招くストーリーは、公式な事実よりも早く拡散される傾向にある。こうした情報は、選挙の公正さやワクチンの普及、さらには公共機関への信頼を静かに、しかし確実に損なわせている。この深刻な課題に対し、英国のバーミンガム大学が新たな一歩を踏み出した。
同大学の研究チームは、「ニューロ・コグニティブ・シールド(神経認知の盾)」と名付けられた革新的なプロジェクトを立ち上げた。このプロジェクトは、英国の研究・イノベーション機構(UKRI)から約98万6000ポンド(約1億9000万円)という多額の資金援助を受けて始動したものである。その目的は、人々が偽情報に惑わされず、自ら情報を精査できるよう支援するAIモデルを開発することにある。
このプロジェクトのユニークな点は、最新の「脳マッピング(脳機能写像)」技術を活用していることだ。人間には、情報を深く考えずに受け入れてしまう、あるいは拒絶してしまう「クイック・アクセプト(即座の受容)」という状態がある。研究チームは脳の働きを分析することで、どのような状況で人が情報の真偽を疑わなくなるのかを解明しようとしている。
開発されるAIモデルは、単に「これが嘘だ」と指摘するだけではない。利用者の脳の「批判的思考(クリティカル・シンキング)」を司る部分を活性化させるよう、一人ひとりに合わせたメッセージを届ける仕組みを目指している。いわば、情報の波に飲み込まれそうになったとき、「ちょっと待って、これは本当かな?」と自分で立ち止まるための「心のスイッチ」を優しく押してくれる存在といえる。
また、この研究は大学の中だけで完結するものではない。バーミンガムの多様な地域コミュニティと密接に連携しながら進められる。偽情報の標的になりやすい人々や、背景の異なる様々なグループの声を取り入れることで、情報の多様性を「弱点」ではなく、偽情報から身を守るための「資産」へと変えていく。特定の文化や言語、価値観に配慮したAIを構築することで、社会全体の免疫力を高めようという試みである。
このプロジェクトの成功は、単に技術的な進歩を意味するだけではない。私たちが自信を持って民主主義的な対話に参加し、お互いを信頼できる社会を取り戻すための大きな助けとなるだろう。AIが監視の道具ではなく、私たちの思考を助け、自律的な判断を支える「盾」として機能する未来。そんな、人間とテクノロジーが優しく共生する形を、この研究は示してくれているのである。
New project creating AI model to help people challenge misinformation wins nearly £1m funding
(翻訳・文にAIを使用)
