Asystenci głosowi: jak chronić się przed symulacją głosu i hakowaniem

Korzystanie z funkcji rozpoznawania głosu i asystentów głosowych Google Siri, Alexa i Cortana do przeszukiwania Internetu niesie ze sobą niebezpieczeństwa naśladowania Twojego głosu w celu kradzieży informacji, czego wielu użytkowników nawet nie podejrzewa. Tutaj dowiesz się, jak chronić urządzenie przed włamaniem, naśladując Twój głos podczas korzystania z asystentów głosowych.

Jak możesz zostać zhakowany przez asystenta głosowego

Wiele osób używa głosu do uwierzytelniania w celu uzyskania dostępu do swoich urządzeń, aplikacji, kont i danych. Hakowanie głosu (jego imitacja) może pozwolić włamywaczom oszukać wirtualnego asystenta i uzyskać dostęp do twoich danych osobowych, lub wykonać dowolne czynności w Twoim imieniu bez Twojej zgody.

Ale nie spiesz się,aby zakleić mikrofon telefonu! Wiemy, jak uniknąć drastycznych środków i nadal zapewniamy poufność informacji i kont podczas korzystania z wirtualnych asystentów.

Jak uchronić się przed włamaniem za pomocą głosu

Aby zapobiec włamaniu do urządzenia i włamaniom do Twojej sieci domowej i podłączonych gadżetów, zmień hasło Wi-Fi na silniejsze. Ponadto, jeśli to możliwe, używaj dodatkowych warstw ochrony, takich jak kod głosowy (podczas zakupów z Alexą) lub weryfikacja dwuskładnikowa Google.

Trzymaj swojego asystenta audio z dala od innych źródeł dźwięku

Chociaż nie zawsze jest to łatwe i praktyczne, staraj się trzymać urządzenie z dala od innych możliwych źródeł dźwięku, takich jak zestawy stereo, laptopy, telewizory Smart TV, a nawet okna wychodzące na ulicę. I oczywiście wyłączaj gadżet, gdy go nie używasz. Nawet bez udziału intruzów asystent głosowy może omyłkowo przedstawić Ci nieprzyjemną niespodziankę: zdarzały się przypadki, gdy asystenci głosowi dokonywali zakupów w Internecie, słysząc słowa z reklamy telewizyjnej lub piosenki. Wyobraź sobie, co wtedy może zrobić haker lub zły sąsiad!

Nie używaj asystenta głosowego w miejscach publicznych

Jesteś najbardziej podatny na włamywaczy w sytuacjach, gdy obcy może usłyszeć Twój głos i go nagrać. </bold> Za pomocą specjalnych programów możesz rozłożyć głos na składowe dźwięki, sfałszować swój swój własny i stworzyć frazę, której nigdy nie wypowiedziałeś. Przeczytaj więcej o takich podróbkach w naszym artykule «Deepfake».

Upewnij się, że asystent głosowy odpowiada tylko Tobie

Warto też skonfigurować wirtualnego asystenta i powiązane aplikacje tak, aby reagowały tylko na Twój głos (w Google Home i urządzeniach z wbudowanym Asystentem Google ta opcja nazywa się Voice Match). Następnie, aby upewnić się, że rozpoznawanie działa zgodnie z oczekiwaniami, poproś osobę bliską o wypróbowanie przekazania poleceń głosowych Twojemu asystentowi.

Jeśli chcesz dowiedzieć się więcej o ochronie informacji i poufnych danych w Internecie, przeczytaj nasz artykuł, w którym szczegółowo rozwijamy ten temat i dzielimy się przydatnymi wskazówkami.

Zdjęcie: 123RF

Treści, które ukazują się w serwisie CCM powstają we współpracy z ekspertami IT i pod kierownictwem Jeana-François Pillou, założyciela CCM.net. CCM to serwis o nowych technologiach - jeden z największych na świecie, dostępny w 11 językach.
Zobacz również
Ten dokument zatytułowany "Asystenci głosowi: jak chronić się przed symulacją głosu i hakowaniem" opublikowany przez CCM (pl.ccm.net) jest udostępniany na licencji Creative Commons. Możesz kopiować i modyfikować kopie tej strony, na warunkach określonych przez licencję i wymienionych w niniejszym tekście.
Dołącz do nas!