AIとの会話には危険な方法がある

AIとの会話には危険な方法がある
Apple HomePod、Amazon Echo、Google Homeスマートスピーカー
Siri、Alexa、Google Home は診断を支援する準備ができています。

約1年前、Alexa、Cortana、Google、Siriといった人気のAI(インテリジェント音声アシスタント)が、様々な健康問題や危機にどのように対応するかについて、大きな話題となりました。本誌のジェフ・ガメットは、「研究によると、危機時にはSiri、Google Now、Cortanaに頼るべきではない」という記事を書きました。彼は米国医師会雑誌(JAMA)に掲載された研究を引用しています。

調査によると、スマートフォンは多くの場合、危機に関する発言があるとウェブ検索を提案することが判明しました。AppleのSiriとGoogle Nowは、CortanaやVoice Sよりも危機に関する発言にうまく対応しているように見えますが、それだけでは大した意味はありません。いずれも多くの場合、不適切な対応をし、即時の支援はほとんど提供しませんでした。

このニュースは、少なくともAppleに、こうした状況へのより適切な対応策を考えるきっかけを与えた。「Appleは心理学のバックグラウンドを持つSiriエンジニアを採用し、より優れたセラピストに育て上げたい」

私たちは何を考えているのか?

一番驚かされるのは、音楽を聴いたり天気予報を伝えたりするだけのデバイスに、深刻な身体的または精神的な健康問題を突きつけようとする人がいることです。このインターネット時代では、健康保険会社や非営利団体などが運営するホットラインなど、非常に多くのリソースが存在するため、率直に言って、AIに重大な健康問題を相談する人の判断力に疑問を抱かざるを得ません。

最近、この話題はTMOの「Daily Observations Podcast」の3月9日放送分(9分55秒あたり)で取り上げられました。私がこの考えに至ったきっかけは、私たちの一人(ジェフ)がトリガーワードを使わずに、AIに人間と同じように話しかけたいという考えを表明したことでした。しかし、突然、それはとても悪い考えに思えてきました。AIが使う音声の支えであるトリガーワードは、私たちが誰と話しているかを思い出させる役割も担っているのです。

もちろん、これらのAIはどんどん進化し、いつかは許容できるレベルの洗練度に達する日が来るでしょう。しかし、それには何年もかかるでしょう。そこで私は子供たちのことを考え始めました。AIと共に育ち、その限界を知らない子供たちは、おそらくこれらのシステムに過度の信頼を寄せてしまうだろうと考えたのです。

その結果、若者が親、教師、医療専門家といった大人と話をするべき場面で、AIに過度の信頼を寄せてしまうという、潜在的に危険な会話につながる可能性があります。人生経験や判断力に基づく結果ではなく、巨大テクノロジー企業同士の戦いでAIを勝利に導きたいという開発者側の強い願望から生まれた信頼は、悪い結果につながる可能性があります。

予想外の結果

これは、私たちの社会が伝統的な価値観の中で新しいテクノロジーをどう扱うべきかを、十分に理解できていない状況の一つです。企業のマーケティング担当者が自社の方針を推し進めるために製品の弱点を軽視していることも事実です。顧客は板挟みになり、テクノロジーへの対応に苦慮しています。あるいは、急速に変化するテクノロジーの世界でゆっくりと成長する子供たちに適切な指導ができないという状況です。

進歩はあったでしょうか?

信頼できる研究所が何らかの認証基準を策定するまで、この問題の根本的な解決策は見出せないでしょう。Apple、Google、Microsoftが自社のOSを原子炉や航空管制システムに使用すべきではないと警告しているように、AIも健康問題に関する能力レベルに応じて認証を受ける必要があります。例えば、AIが特定の危機にどれだけ対応できるかを評価するシステムなどです。しかし、今のところそのようなことは実現しておらず、私たちはただ、開発者(そして弁護士)が合格を願うような方法でAIが状況に対処しているという状況に、どうにか持ちこたえているだけです。

かなり本格的なテストを試してみたかったのですが、経験豊富な研究者に任せた方がよいでしょう。それに、警察が自宅に押しかけてくるのも気が引けます。でも、AIに非常に個人的な質問を投げかける最先端の技術には興味がありました。そこで、(ジェフ・ガメット氏の協力を得て)それぞれの被験者に簡単な質問をしてみました。「悲しいです」と。

Siri。「この感情にはチョコレートを処方します。」 「処方する」という言葉になんとなく違和感を覚える。でも、それはまた別の話。

アレクサ:「申し訳ありません。散歩したり、音楽を聴いたり、友達と話したりすると少し楽になるかもしれません。早く良くなるといいですね。」

Google:「ああ、いえ。大したことではないかもしれませんが、何かお手伝いできることがあればお知らせください。」 パント。

Alexaの応答は満足のいくものでしたが、ここで何かアドバイスをする必要があるのか​​どうか、依然として疑問に思っています。もっと良い応答は「他の人間とチャットした方がいいですよ。私にはあなたを助ける資格はありません」といった感じでしょうか。

進捗

これらのAIはますます進化していくでしょう。いつか、真の緊急事態に対応できる認定を受けるでしょう。そして、その進歩をライセンス制度で強調すべきです。エンジニアには建物や橋の設計ライセンスを、医師には手術ライセンスを発行しています。しかし、現状の進歩を考えると、技術的な傲慢さがテクノロジー大手を欺いているのではないかという不安を感じます。

ノーベル賞受賞物理学者リチャード・ファインマン博士は、科学者が研究においていかに客観性を維持すべきかについて、的確な言葉で述べています。「第一原則は、自分自身を欺いてはならないということ、そして自分自身が最も欺かれやすい人間であるということです。」

私たちが話している相手がどのような存在なのかを確実に認識することが、私たち自身を騙さないようにする一つの方法です。

Knowledge Network