VASA-1 może stać się głównym generatorem deepfake’ów, które zadecydują o wyborach lub ich złamaniu
Microsoft VASA-1 to nowe narzędzie, które pozwala tworzyć deepfakes za pomocą samego zdjęcia i klipu audio. Przecież złoczyńcy mogą to wykorzystać na różne sposoby. Na szczęście w tej chwili framework nie jest dostępny, ponieważ programiści wciąż nad nim pracują.
Według Microsoftu rosyjscy i chińscy hakerzy używają narzędzi podobnych do VASA-1 do generowania złożonych filmów typu deepfake. Za ich pośrednictwem rozpowszechniają dezinformację na temat istniejących problemów społeczno-politycznych, aby wpłynąć na wybory w USA. Jedną z ich metod jest na przykład stworzenie fałszywego filmu przedstawiającego mniej znanego polityka mówiącego o palących sprawach. Dodatkowo wykorzystują rozmowy telefoniczne generowane przez sztuczną inteligencję, aby uczynić ją bardziej wiarygodną.
Co przestępcy mogą zrobić za pomocą VASA-1 i podobnych narzędzi?
Podmioty zagrażające mogą również używać VASA-1 i narzędzi takich jak Sora AI do tworzenia fałszywych fałszywych informacji przedstawiających celebrytów lub osoby publiczne. W rezultacie cyberprzestępcy mogą zaszkodzić reputacji VIP-ów lub wykorzystać ich tożsamość do oszukania nas. Ponadto możliwe jest wykorzystanie aplikacji do generowania wideo w celu promowania fałszywych kampanii reklamowych.
Możliwe jest wykorzystanie VASA-1 do tworzenia deepfakes ekspertów. Na przykład jakiś czas temu firma reklamowa wygenerowała film przedstawiający Danę Brems , podiatrę, w celu promowania fałszywych praktyk i produktów, takich jak pigułki odchudzające. Ponadto większość podmiotów zagrażających dokonujących tego typu oszustw pochodzi z Chin.
Nawet jeśli deepfakes generowane za pomocą VASA-1 są złożone, nie potrzebujesz zaawansowanej wiedzy, aby z nich korzystać. W końcu ma prosty interfejs użytkownika. Dzięki temu każdy może go używać do generowania i przesyłania wysokiej jakości filmów. Poza tym wszystko, czego potrzebują, to generator głosu AI i wiadomość głosowa. Dlatego inni mogą go wykorzystać do tworzenia fałszywych dowodów sądowych i innych rodzajów złośliwych treści. Poniżej znajdziesz post @rowancheung, w którym to prezentuje.
Czy są jakieś sposoby zapobiegania deepfake’om VASA-1?
VASA-1 pokazuje, jak bardzo sztuczna inteligencja rozwinęła się w ciągu kilku lat, i choć wydaje się to nieco groźne, urzędnicy wprowadzają w życie nowe zasady. Mamy na przykład unijną ustawę AI ACT, pierwsze rozporządzenie dotyczące sztucznej inteligencji, które zakazuje modeli stanowiących zagrożenie. Co więcej, Microsoft zapewnia nas, że VASA-1 nie będzie dostępny zbyt szybko. Jednak przekroczył swoje szkolenie i przyjął nowe funkcje.
Niestety istnienie VASA-1 pokazuje, że możliwe jest stworzenie narzędzia generatywnego AI zdolnego do tworzenia deepfakes. Dlatego doświadczeni ugrupowania zagrażające mogą stworzyć własną złośliwą wersję.
Ostatecznie nie będziemy mogli zbyt szybko tworzyć deepfake’ów za pomocą VASA-1. Technologia ta może jednak stać się prawdziwym zagrożeniem dla bezpieczeństwa. Dlatego Microsoft i inne firmy powinny zachować ostrożność podczas testowania, aby uniknąć pozostawienia luk. Przecież nikt nie chce kolejnego incydentu z AI.
Jakie są Twoje myśli? Czy boisz się, że ktoś może wykorzystać przeciwko Tobie generator deepfake’ów? Daj nam znać w komentarzach.
Microsoft właśnie wprowadził VASA-1. To nowy model sztucznej inteligencji, który może zamienić 1 zdjęcie i 1 fragment audio w w pełni realistyczną ludzką fałszywkę. Chętnie porzucę to tuż przed wyborami 😬 pic.twitter.com/MuLkZVOKRM
— Rowan Cheung (@rowancheung) 18 kwietnia 2024 r
Dodaj komentarz