Các trợ lý ảo Alexa, Google Assistant và Siri dễ bị tấn công bằng tia Laser

QuynhNhu

New Member
Joined
Sep 27, 2017
Messages
3,806
Reaction score
0
Alexa, Google Assistant, Siri Vulnerable to Laser Beam Hacking

Các trợ lý ảo Alexa, Google Assistant và Siri dễ bị tấn công bằng tia Laser, kể cả Facebook Portal và các thiết bị khác sử dụng micrô MEMS(Micro-Electro-Mechanical Systems) cũng sẽ bị ảnh hưởng.

Các nhà nghiên cứu bảo mật ở trường Đại học Michigan và Đại học Electro-Communications (Tokyo) đã phát minh ra một kỹ thuật mới có tên là "Light Commands", có thể ra lệnh cho các trợ lý giọng nói bằng cách sử dụng một chùm tia laser.

"Light Commands" là gì?
Theo trang web của các nhà nghiên cứu, Light Commands là một lỗ hổng trong micro MEMS cho phép kẻ tấn công ra lệnh từ xa mà chúng ta không nghe được đến các trợ lý giọng nói. Các nhà nghiên cứu đã sử dụng lỗ hổng này để đưa ra một mệnh lệnh vô hình, không nghe thấy được thông qua một chùm tia laser.

Kỹ thuật này đòi hỏi tia laser phải chạm vào cổng micro của mục tiêu, điều này có thể hơi khó khăn ở khoảng cách lớn. Tuy nhiên, các nhà nghiên cứu cũng lưu ý rằng những kẻ tấn công có thể sử dụng ống nhòm hoặc kính viễn vọng để cải thiện độ chính xác.

Thử nghiệm của các nhà nghiên cứu
Khoảng cách mà các nhà nghiên cứu thử nghiệm là 110 mét (~361 feet), đó là chiều dài của hành lang dài nhất mà họ có thể tìm thấy vào thời điểm đó. Nhưng các nhà nghiên cứu lưu ý rằng Lệnh "Light Commands" có thể dễ dàng truyền đi xa hơn rất nhiều.
Ngoài các trợ lý giọng nói ra, các thiết bị khác sử dụng micro MEMS bao gồm loa thông minh, máy tính bảng và điện thoại thông minh... vẫn có thể bị tấn công bằng tia Laser ở khoảng cách lớn.

Các nhà nghiên cứu đang chứng minh cho chúng ta thấy rằng các cuộc tấn công nhằm vào vấn đề bảo mật đang ngày càng tinh vi hơn, ngoài việc quan tâm đến các cuộc tấn công bằng phần mềm thì các công ty cần quan tâm đến các cuộc tấn công vật lý đối với sản phẩm của họ hơn nữa. Nhiều công ty hiện nay thậm chí chưa theo kịp các vấn đề bảo mật phần mềm thiết bị của họ đúng cách, do đó vẫn còn phải xem họ sẽ làm gì về bảo mật vật lý của thiết bị.

Các phương pháp ngăn ngừa
Theo các nhà nghiên cứu, tính năng "nhận dạng giọng nói" không thể bảo vệ người dùng khỏi lỗ hổng này ngay cả khi họ tắt nó theo mặc định, bởi vì các nhà nghiên cứu cũng có thể dễ dàng vượt qua tính năng đó bằng cách sử dụng công nghệ "chuyển văn bản thành giọng nói" để nhái giọng nói của người dùng.

Các nhà nghiên cứu cũng đã đề xuất một vài biện pháp để ngăn ngừa bớt các cuộc tấn công loại này.
-Biện pháp đầu tiên là yêu cầu người dùng xác thực mỗi khi đưa ra lệnh mới, VD như trả lời một câu hỏi ngẫu nhiên (giống như CAPTCHA phiên bản giọng nói).
-Biện pháp tiếp theo tăng số lượng micrô trên thiết bị. Các tia laser chỉ có thể nhắm vào một micrô tại một thời điểm, do đó cần có hai micrô để nghe từng lệnh, theo lý thuyết có là sẽ ngăn chặn cuộc tấn công dạng này.
-Biện pháp cuối cùng là thêm một rào cản vật lý phía trên màng loa của micrô để ngăn ánh sáng chiếu trực tiếp vào.
 
Top