VASA-1 może stać się głównym generatorem deepfake’ów, które zadecydują o wyborach lub ich złamaniu

VASA-1 może stać się głównym generatorem deepfake’ów, które zadecydują o wyborach lub ich złamaniu

Microsoft VASA-1 to nowe narzędzie, które pozwala tworzyć deepfakes za pomocą samego zdjęcia i klipu audio. Przecież złoczyńcy mogą to wykorzystać na różne sposoby. Na szczęście w tej chwili framework nie jest dostępny, ponieważ programiści wciąż nad nim pracują.

Według Microsoftu rosyjscy i chińscy hakerzy używają narzędzi podobnych do VASA-1 do generowania złożonych filmów typu deepfake. Za ich pośrednictwem rozpowszechniają dezinformację na temat istniejących problemów społeczno-politycznych, aby wpłynąć na wybory w USA. Jedną z ich metod jest na przykład stworzenie fałszywego filmu przedstawiającego mniej znanego polityka mówiącego o palących sprawach. Dodatkowo wykorzystują rozmowy telefoniczne generowane przez sztuczną inteligencję, aby uczynić ją bardziej wiarygodną.

Co przestępcy mogą zrobić za pomocą VASA-1 i podobnych narzędzi?

Podmioty zagrażające mogą również używać VASA-1 i narzędzi takich jak Sora AI do tworzenia fałszywych fałszywych informacji przedstawiających celebrytów lub osoby publiczne. W rezultacie cyberprzestępcy mogą zaszkodzić reputacji VIP-ów lub wykorzystać ich tożsamość do oszukania nas. Ponadto możliwe jest wykorzystanie aplikacji do generowania wideo w celu promowania fałszywych kampanii reklamowych.

Możliwe jest wykorzystanie VASA-1 do tworzenia deepfakes ekspertów. Na przykład jakiś czas temu firma reklamowa wygenerowała film przedstawiający Danę Brems , podiatrę, w celu promowania fałszywych praktyk i produktów, takich jak pigułki odchudzające. Ponadto większość podmiotów zagrażających dokonujących tego typu oszustw pochodzi z Chin.

Nawet jeśli deepfakes generowane za pomocą VASA-1 są złożone, nie potrzebujesz zaawansowanej wiedzy, aby z nich korzystać. W końcu ma prosty interfejs użytkownika. Dzięki temu każdy może go używać do generowania i przesyłania wysokiej jakości filmów. Poza tym wszystko, czego potrzebują, to generator głosu AI i wiadomość głosowa. Dlatego inni mogą go wykorzystać do tworzenia fałszywych dowodów sądowych i innych rodzajów złośliwych treści. Poniżej znajdziesz post @rowancheung, w którym to prezentuje.

Czy są jakieś sposoby zapobiegania deepfake’om VASA-1?

VASA-1 pokazuje, jak bardzo sztuczna inteligencja rozwinęła się w ciągu kilku lat, i choć wydaje się to nieco groźne, urzędnicy wprowadzają w życie nowe zasady. Mamy na przykład unijną ustawę AI ACT, pierwsze rozporządzenie dotyczące sztucznej inteligencji, które zakazuje modeli stanowiących zagrożenie. Co więcej, Microsoft zapewnia nas, że VASA-1 nie będzie dostępny zbyt szybko. Jednak przekroczył swoje szkolenie i przyjął nowe funkcje.

Niestety istnienie VASA-1 pokazuje, że możliwe jest stworzenie narzędzia generatywnego AI zdolnego do tworzenia deepfakes. Dlatego doświadczeni ugrupowania zagrażające mogą stworzyć własną złośliwą wersję.

Ostatecznie nie będziemy mogli zbyt szybko tworzyć deepfake’ów za pomocą VASA-1. Technologia ta może jednak stać się prawdziwym zagrożeniem dla bezpieczeństwa. Dlatego Microsoft i inne firmy powinny zachować ostrożność podczas testowania, aby uniknąć pozostawienia luk. Przecież nikt nie chce kolejnego incydentu z AI.

Jakie są Twoje myśli? Czy boisz się, że ktoś może wykorzystać przeciwko Tobie generator deepfake’ów? Daj nam znać w komentarzach.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *