PR

アマゾンのスピーカー「アレクサ」が夫婦の会話を録音し勝手に他人に送信

ネットにマイクが繋がってりゃ、こういう事が起こっても不思議やないわな。

iPhoneのSiriもこういう事が起こる可能性があるんで注意した方が良さそうですわ。

スポンサーリンク

アマゾンのスピーカーが夫婦の会話を録音、勝手に他人に送信

https://headlines.yahoo.co.jp/hl?a=20180525-35119780-cnn-int
サンフランシスコ(CNNMoney) 米アマゾンのスマートスピーカーに内蔵されている音声アシスタントの「アレクサ」が、米オレゴン州に住む夫婦の会話を知らないうちに録音し、その内容を夫の勤務先の従業員に送信してしまう出来事があった。

オレゴン州ポートランドに住む夫婦は、自宅でアマゾンのスマートスピーカー「エコー」を使っていた。妻は地元放送局KIRO7の取材に応じ、自宅のスピーカーについて、夫と冗談で「間違いなく私たちの話を聞いている」と話していたことを明らかにした。

事態が発覚したのは2週間ほど前。夫の勤務先の従業員から電話があり、夫婦の会話を録音した不審な音声ファイルが送られてきたと告げられた。

電話の相手は、「すぐにアレクサ装置の電源を抜いた方がいい」「あなた方はハッキングされている」と夫婦に忠告したという。

録音されていたのは、夫婦がフローリングについて話していた会話だった。女性はアマゾンに連絡したところ、アレクサ担当の技術者から何度も謝罪されたと話している。

アマゾンは問題があったことを認め、ありえない出来事が重なってハプニングが起きたと説明した。スピーカーがハッキングされたり不具合があったりしたわけではなく、アレクサのマイクが一連の言葉を聞き間違え、誤って音声メッセージを送信してしまったことが原因だという。

ハッキングやないのに、何でこんな事が起きたかっちゅうと…

スポンサーリンク

アレクサによる誤送信はこうやって起きた

https://headlines.yahoo.co.jp/hl?a=20180525-00010002-huffpost-int
1. 夫婦の会話の中に“アレクサ“に似た言葉を認識し、起動した。

2. さらに、続く会話の中に含まれていた言葉を“メッセージを送る“と認識。アレクサは“誰に?“と尋ねた。

3. その後の夫婦の会話から、連絡先リストにある人の名前を認識し、「(連絡先リストの名前)でよろしいですか?」と尋ねた。そして、その後の会話から、“はい“という言葉を認識した。

そんな偶然ないやろ(笑)

そもそも、反応良すぎるんやろな。

何ちゅうても…

オウムでも起動するんやから(笑)

まぁ、反応悪いと使いもんにならんのやろうけど。

それにしても、こういうのを使うってのが個人的にはどうにも理解に苦しむ。

iPhoneのSiriにしても未だに「ヘイ、シリ」って言うた事ないもん。

こういうのに向かって、「オッケーグーグル」とか「アレクサ」とか話しかけるのって恥ずかしくないんやろか?

周りに誰もおらんかったとしても、ようやらん(笑)

そもそも、音声検索もようやらんわ。

若い子はこういうのに抵抗感ないんやろか?

どっちにしても、おじさんには無縁の商品ですな。

何にしても、ハッキングされんでも誤動作でこういう事が起きるし、ハッキングされる可能性もあるんで、くれぐれも寝室に置くのはやめましょうって事で。


Amazon Echo、チャコール (ファブリック)











インターネット・スマホ・携帯
ぶんぐをフォローする

コメント

タイトルとURLをコピーしました