個人の声に基づいてリスクを分析するソフトウェアを開発するAC Global Risk社の活動に、大きな疑念が投げかけられている。The Interceptは 複数の専門家に取材し、同社に対する技術的および倫理的な懸念を表明した。同社は以前、Appleが主要顧客の一つであると主張しており、FacebookとGoogleもAC Global Risk社と関係があると考えられている。

声に基づいて個人がリスクであるかどうかを判断する
AC Global Risk は、人の話し方を分析することで、その人に関連するリスクのレベルを確立する製品を開発していると主張しています。
The Interceptのレポートでは次のように説明されている。
AC Global Riskのクライアントは、自動化された「はい/いいえ」形式の面接質問の作成を支援します。特定のスクリーニング対象者に選ばれたグループは、電話で実施可能な10分間の面接で、これらの簡単な質問に母国語で回答します。その後、RRAは彼らの声の特徴を測定し、低リスクから高リスクまでのスペクトルで各個人をスコア化する評価レポートを作成します。
ACグローバル・リスクは、Appleを主要テクノロジー顧客の一つとしている。7月、同社のCEOであるアレックス・マーティン氏はブルームバーグのインタビューに応じた。司会者はFacebook、Palantir、そしてAppleを自社の顧客として挙げたが、マーティン氏はこの主張に反論しなかった。「当社は、企業がセキュリティ分野に携わる人材をスクリーニングするお手伝いをしています」とマーティン氏は述べた。
とはいえ、Apple は AC Global Risk ソフトウェアをどのように使用したか、あるいは使用したかどうかさえも公表していない。
「偽の」技術
The Interceptによる調査は、AC Global Riskの主張に疑問を投げかけました。同誌は複数の学者にインタビューを行い、この技術の問題点とリスクを指摘しました。プロジェクト関連資料を分析した専門家の中には、その研究成果を「偽物」といった言葉で表現した人もいました。
社会認識と第一印象の科学を研究するプリンストン大学の心理学者アレックス・トドロフ氏は、 The Intercept に次のように語った。
声のダイナミックな変化には何らかの情報が含まれており、彼らはそれを検知している。これは全くあり得る話だ。「しかし問題は、この情報が、彼らが危険と定義したカテゴリーの人々をどれほど明確に検知できるのかということです。こうしたシグナルには常に曖昧さが伴います。」
アウクスブルク大学のビョルン・シュラー教授は倫理的な懸念を指摘し、「倫理的な観点から言えば、声だけから嘘を見抜くことが正確にできるという印象を与えるのは非常に疑わしく、不透明だ」と述べた。