Rozwój technologii niesie ze sobą ogrom korzyści, ale równie dużo zagrożeń. Te możemy oglądać na własne oczy zarówno w świecie realnym, jak i w filmach, serialach czy grach. Jeśli jesteście fanami gatunku science-fiction, to zapewne nie raz spotkaliście się z motywem robotów/sztucznej inteligencji naśladującej czyjś głos. Zresztą, daleko nie szukając – Terminator 2 i scena z T-1000 naśladującym przez telefon głos przybranej matki Johna Connora. Ta wizja może się wkrótce ziścić za sprawą nowego systemu przygotowywanego przez Amazona dla Alexy.
Czytaj też: Motorola RAZR 3 dostanie baterię, która może rozczarować wiele osób
Jak podaje Reuters, Amazon opracowuje właśnie system, który sprawi, że asystent głosowy Alexa będzie mógł naśladować głos danej osoby
Podobno wystarczyć będzie mniej niż minuta, by Alexa mogła zmienić swój głos. W teorii celem tej nowej funkcji ma być umożliwienie użytkownikom słuchania głosu swoich utraconych bliskich i powracanie do wspomnień. Amazon zaprezentował nawet film demonstracyjny z działania funkcji i choć brzmi to naprawdę fajnie, bo na materiale dziecko poprosiło Alexę, by głosem babci dokończyła czytanie bajki, to w praktyce rodzi bardzo dużo obaw.
Czytaj też: Praktyczne wideo pozwala obejrzeć Nothing Phone (1) z każdej strony
Skoro tak szybko asystent głosowy jest w stanie podszyć się pod daną osobę, bo może być równie łatwo wykorzystany w bardziej niecnym celu – do oszustw telefonicznych czy do jeszcze bardziej realistycznych deepfake’ów. Połączenie realistycznie podstawionej twarzy, wraz z autentycznie brzmiącym głosem danej osoby będzie mogło oszukać naprawdę wiele osób.
Czy więc warto? Cóż, żyjemy w dobie rozwoju technologicznego, który jest ściśle związany właśnie z takimi zagrożeniami. Bo o ile cele twórców danych technologii zwykle są szczytne, to od użytkowników zależy, w jaki sposób będą je wykorzystywać w praktyce. Tak samo jest również z nową funkcją Alexy. Amazon oczywiście podkreśla, że system polega na “konwersji głosu, a nie ścieżki generowania mowy”, jednak jak wiadomo – oszuści są naprawdę kreatywni i z pewnością znajdą sposób na niecne wykrozystanie asystenta głosowego.