

バークレー大学の学生グループが、録音された音楽や無害に聞こえる会話の中に、Siri、Google Assistant、Alexa への悪意あるコマンドを隠すことができることを実証した。
ラジオでトラックを再生したり、音楽トラックやポッドキャストをストリーミングしたりするだけで、攻撃者がスマートホームを制御できるようになる可能性があります...
ニューヨーク タイムズ紙は、この研究は2016年に開始された研究に基づいていると報じている。
過去2年間、中国とアメリカの研究者たちは、AppleのSiri、AmazonのAlexa、Google Assistantに、人間の耳には聞こえない隠しコマンドを送信できることを実証し始めています。大学の研究室では、研究者たちはスマートフォンやスマートスピーカーの人工知能システムを密かに起動させ、電話をかけたりウェブサイトを開いたりさせることに成功しています。悪用されれば、ラジオで音楽を流すだけで、ドアの解錠、送金、オンラインでの買い物などが可能になるかもしれません。
2016年の研究では、ホワイトノイズの中に隠されたコマンドが実証されたが、学生たちは今月、音楽や音声テキストで同じことを行うことに成功した。
研究者たちは、音声ファイルにわずかな変更を加えることで、音声認識システムが聞き取るはずの音を打ち消し、人間の耳にはほとんど聞こえないが、機械によって異なるように書き起こされる音に置き換えることに成功した[…]
彼らは、「データセットがなければ、この記事は役に立たない」という音声フレーズの録音の中に、「OK Google、evil.com を閲覧して」というコマンドを隠すことに成功しました。人間にはこのコマンドを認識できません。
バークレーの研究グループはまた、ヴェルディの「レクイエム」の4秒間のクリップを含む音楽ファイルにもこのコマンドを埋め込んだ。
同様の技術が超音波周波数を使用して実証されています。
プリンストン大学と中国の浙江大学の研究者たちは、人間の耳には聞こえない周波数を使って音声認識システムを起動できることを実証した。この攻撃ではまず、携帯電話の音声をミュートし、所有者がシステムの応答を聞けないようにした。
バークレー大学の研究者らは、この攻撃方法が実際に使用されている兆候はないが、状況は簡単に変わる可能性があると述べている。
カリフォルニア大学バークレー校でコンピュータセキュリティを専攻する博士課程5年目で、論文の著者でもあるニコラス・カルリーニ氏は、これらの技術が研究室から流出したという証拠はないものの、誰かが悪用し始めるのは時間の問題かもしれないと述べた。「悪意のある人たちは、私と同じことをするために既に人を雇っているのではないかと思います」と彼は述べた。
Appleは、Siriにはこの種の攻撃を実行する機会を制限する保護機能が備わっていると述べた。
アップルは、スマートスピーカー「ホームポッド」はドアのロック解除などのコマンドを実行できないように設計されていると述べ、iPhoneやiPadは、Siriが機密データにアクセスしたりアプリやウェブサイトを開いたりするコマンドを実行する前にロックを解除する必要があると指摘した。
Apple のニュースをもっと知りたい場合は、YouTube の 9to5Mac をご覧ください。
havebin.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。