アレクサの危険性について
アレクサの危険性について、「AmazonEcho」や「Googlehome」が第3者操作可能という報告がありました
出典NHK
NHKのニュースで「AIスピーカー」を誤作動させる実験がされていました
2018年1月27日のニュースで、早稲田大学の森達哉准教授らの研究グループの実験であきらかになりました
参考:東京新聞
(http://www.tokyo-np.co.jp/article/national/list/201801/CK2018012702000229.html)
記事の内容は下記のとおり
音声でさまざまな指示を出せる「人工知能(AI)スピーカー」に対して、音声を超音波に変換する「パラメトリック・スピーカー」と呼ばれる機器を使って命令を出すと、最大十メートル離れた場所から第三者が操作できる可能性があることが二十七日、早稲田大の森達哉准教授(情報セキュリティー工学)らの実験で分かった。
~中略~
森准教授によると、パラメトリック・スピーカーは、超音波を利用することで音声を限られた場所に飛ばせるように設計されている。
これを使って離れた場所からAIスピーカーに指示をすると、周りにいる人には聞こえないまま操作できる。利用者が意図しない操作をされたり、盗聴に使われたりする恐れがあるという。
実験の内容を簡単にまとめると
- 聞こえない音を使うわけではない
- 「人の声」をレーザーのように真っ直ぐ進むように変換してAIスピーカーだけに送るというもの
- 簡単に言うと、周囲に音は聞こえないが、AIスピーカーだけに音を届ける
- 超音波のように、聞こえない音を使うわけではない
- 声を変換する機械は一般的にでまわっていない
結論としては、内緒で第三者が誤作動を起こさせる可能性はあるが、すぐに誰かにマネできるやりかたではないということでした
この実験内容を見ると、確かにすぐ悪事にはつかわれなさそうな気がします
注意しなければなりませんが、とりあえず一安心です
ドルフィンアタック
先ほど一安心といいましたが、ほかの脅威(きょうい)がなくなったわけではありません
今回のような聞こえる音での誤作動ではなく、聞こえない音での誤作動も報告されているのです
早稲田大学の実験は、指向性のある聞こえる音での実験でしたが、中国の浙江大学の研究グループは、人に聞こえない周波数の音波で誤作動を発生させました
しかも300円ほどの装置でSiriやAlexaを操作できたということです
その名も「ドルフィンアタック」
これは、その手軽さから、こちらはすぐに悪事に利用されてしまいそうな気がします
そのユーチューブの動画はこちら
(ドルフィンアタック)
その使う部品の構成は、
- サムスンのスマホ
- アンプ(音の増幅装置
- ウルトラソニックトランスデューサー(音波を発生させる装置)
- バッテリー
が主な部品
スマホ以外は300円程度で集められるということ
これだけで、動画のように誤作動をおこさせています
参考:ロボスタ
参考:論文 原文「Inaudible Voice Commands」
すでに、ここ最近のAI技術などの進歩から、多くのスマートスピーカーが発売されています
これからであれば、「Apple」からスマートスピーカー「Home Pod」も発売される予定です(日本ではまだ未定)
普及率は低いですが、今後はスマートスピーカー、もしくは、似たようなAI・音声技術が日常的に使われるようになるのは、それほど的はずれな想像ではないと思います
それには、セキュリティの問題を早めに解決するのは、必要不可欠(ひつようふかけつ)
万人が使えるような普遍的な道具として、今後のセキュリティの改善がどこまでできるのか、早目の対策を望みます
うちのアマゾンエコーも使わないときは、電源抜いてます・・なんとなくです
▼アレクサはいらないかも・・