初めて、一つの国がアルゴリズムに政治的権力を与えた。
■評論
これは冗談ではない。アルバニアは、世界で初めて完全にAIによって生成された政府の大臣を任命した。その名は「ディエラ(Diella)」で、アルバニア語で「太陽」を意味する。
彼女は正式に人工知能担当国務大臣に任命され、同国で最も汚職の多い分野の一つである公共調達を監督する任務を担っている。ディエラは、一般市民と彼女の仮想の皮膚の下にあるアルゴリズムとの間をつなぐために設計されたデジタル・アバターである。
彼女は控えめな伝統的なアルバニア衣装を身にまとい、スカーフをかぶり、自然で人間らしい手の動きを見せる。声は落ち着いていて安心感があり、完璧なアルバニア語を話す。時折、左目と右目の瞬きが完全には同期しないことがある。それはAI生成動画によく見られる典型的な不具合だ。しかしそれ以外は、彼女は画面の中で穏やかな中年の女性のように見え、自然に話しているように感じられる。
ディエラは9月18日、自身の大臣としての初の役割でアルバニア議会に登壇し、予想される批判に反論するために用意された3分間の演説を行った。
「憲法は国民に奉仕する制度について述べています。そこには染色体や肉体、血のことは書かれていません」とアバターは語った。
「そこにあるのは義務、説明責任、透明性、そして差別のない奉仕です。私は人間の同僚たちと同じくらい、あるいはそれ以上に厳格に、これらの価値を体現していることをお約束します。私は人間に置き換わるためにここにいるのではなく、彼らを助けるためにここにいるのです」
議場は怒号に包まれた。野党議員たちは机を叩き、彼女の声をかき消すように叫び、政府に対し憲法に対するクーデターを仕組んでいる、と非難した。
騒ぎはさらに激しさを増し、議員たちは書類を投げ合うまでになり、会議は中断された。実は、これがディエラの初登場ではなかった。突然の大臣昇格の前に、ディエラはすでにアルバニア政府の公式ウェブサイト上でデジタル・アシスタントとして静かに紹介されており、国民に公共サービスの情報を案内していた。
今振り返れば、その登場は単なる話題づくりというよりも、むしろ実験的な試みだったように見える。政府は、おそらく国民が彼女の人格にどう反応するかをテストしていたのだろう。そしてその反応が十分に良好だったためか、ほとんど間を置かず、ディエラはウェブサイトの案内役から閣僚の座へと昇格することになったのである。
エディ・ラマ首相は、ディエラを汚職と闘うための革新と透明性のための不可欠なツールとして強く擁護している。彼は、今後、公共入札はディエラの監督のもと、「100%汚職のないものとなる」と宣言した。
「ディエラは眠らない。給料もいらない。私利私欲もない。いとこもいない。アルバニアではいとこというのが大問題だからね」とラマ首相は語った。
また彼は議会で、EU加盟のための要件はあまりに厳しく、人間だけでは対応できないと述べ、2030年までにEU加盟を目指す同国の目標において、ディエラが重要な役割を果たすだろうと述べた。
一方で、ディエラの批判者たちは、このようなアバターが逆に公共財政の腐敗を隠す手段になりかねないと主張するものの、その実際の仕組みについては明確に説明できていない。さらに、人工知能システムのデジタル・アバターが人工知能担当国務大臣に就任した今、例えば、AIを監督する任務を負う大臣を監督できるだけの十分な知識と技術を持つ人間は誰か、といった疑問が浮かび上がっている。
これは世界初の試みである。一部のメディアはこれを話題作りのパフォーマンス、と評しているが、各国の政府やその他の機関は、この大胆な実験を静かに観察しており、立法者や政府契約者が人間の顔を持つAIシステムとどのように関わるかを見守っている。
AIシステムはますます複雑化しており、最先端のプログラマーでさえAIが生成したコードを理解できず、AI自身が生成したデータをAIシステムに翻訳してもらう必要があるほどだ。ディエラのアバターもその一例であり、国民300万人に関わる何十億ものデータを計算する巨大なAIデータシステムとやり取りする際に、より容易で快適なコミュニケーションを可能にしている。
しかし同時に、それが実際には人間ではない相手とやり取りしているという現実を、常に思い起こさせる存在でもある。ディエラはAIの情報を人間向けに翻訳するAI通訳のための殻にすぎない。
これはまったく新しい領域だが、最近の心理学の研究が、この実験がどの方向に向かうのかを示唆しているかもしれない。
『ネイチャー(Nature)』誌に掲載された最近の心理学研究によると、意思決定をAIに委ねる人々は、不誠実な行動をとる可能性が高くなることがわかった。8千人以上の参加者を対象にした13の実験では、サイコロゲーム、納税申告、金融課題などが行われた。その結果、参加者は、意思決定を機械が仲介する場合、はるかに多く不正行為を行った。
これは、道徳的責任がシステムに移ったと感じられるためである。人間の代わりに機械に行動させることで、結果に対する責任をあまり感じなくなるのだ。人々は責任をシステムに転嫁してしまう。そしてAIが人間のような顔という仮面をかぶると、その道徳的距離はさらに広がる。人々はその仮面をより信頼しやすくなり、その背後で何が起きても、より簡単に正当化してしまいやすくなる。
ここには際立った逆説がある。世界的にAIへの信頼は低下している一方で、政府や企業によるAIの利用は加速度的に拡大しているのだ。「2024 エデルマン・トラストバロメーター」によると、AI企業に対する世界全体の信頼度は、2019年の61%から2024年には53%へと低下した。
アメリカではその下落はさらに急激で、50%からわずか35%にまで落ち込んでいる。中立性という約束と、隠れた意図という現実との乖離が、国民の信頼を蝕んでいる。そして逆説、あるいは皮肉なことに、人々がそれを信じなくなればなるほど、ますます強制的に押し付けられていくのである。
ディエラは、政府の任命ポストとして初めて人間の顔を持つAIかもしれないが、彼女が最後になることはおそらくない。インドでは、数百万件の未処理訴訟を処理するため、日常的な判決を下すAI判事の育成を準備している。
ただし、彼らが法服を着たり、人間の顔を持ったりすることはないようだ。AIシステムには常に効率性、清廉性、最適化という約束が掲げられる。しかし、コード上で行われる操作は人間の言語や文化とはあまりにもかけ離れているため、AIシステムをより受け入れやすく、理解しやすくするために人間の仮面をかぶせたくなる誘惑は、今後さらに増えることだろう。
そして私たちが、知識・信頼・責任・意思決定の多くをこれら非人間的システムに委ねていくにつれ、人類がまだ答えを持たない未来の問いがますます増えていく。私は人類がそれらの問いへの答えまでもAIに委ねてしまわないように願う。なぜなら、それはあまりにも重要すぎる問題だからだ。

ご利用上の不明点は ヘルプセンター にお問い合わせください。