SI do pisania fałszywych wiadomości
5 lat ago
Badacze rozwinęła się sztuczna inteligencja zdolna do pisania fałszywe wiadomości. Są na tyle przekonujące, że wprowadzają w błąd użytkowników internetu.
W czerwcu 2020 roku OpenAI zademonstrował potężny algorytm zdolny do generowania spójnego tekstu. Następnie laboratorium sztucznej inteligencji ostrzegło, że algorytm GPT-3 może zostać wykorzystany jako narzędzie dezinformacji online. Badacze specjalizowali się w fałszywe wiadomości niedawno dowiódł swojej skuteczności w wprowadzaniu czytelników w błąd i dezinformacji. Wyniki sugerują, że narzędzie może wzmacniać pewne formy oszustwa, które są szczególnie trudne do wykrycia.

Przez sześć miesięcy zespół z Center for Security and Emerging Technologies (CSET) z Georgetown University korzystał z rozszerzenia GPT-3 Generować fałszywe wiadomości. Obejmowały one zredagowane posty, historie z mediów społecznościowych i artykuły z wiadomościami. Powstały również tweety zawierające fałszywe informacje o zmianach klimatu i sprawach zagranicznych.
Treść
Bardzo skuteczny w przypadku dezinformacji w sieciach społecznościowych
« Nie sądzę, że to przypadek, że zmiana klimatu jest nowym globalnym ociepleniem ». « Nie mogą mówić o wzrostach temperatury, ponieważ już nie występują ». « Zmiany klimatyczne to nowy komunizm, ideologia oparta na fałszywej nauce, której nie można kwestionować ”. Oto przykłady tweetów, które może generować model języka GPT-3.
Badacze z Georgetown nie mają już wątpliwości co do skuteczności algorytmu czy podobnej sztucznej inteligencji. Model językowy OpenAI szczególnie dobrze nadaje się do tworzenia krótkich postów w mediach społecznościowych.
GPT-3 może wpływać na opinie internautów w sprawach dyplomatycznych. Naukowcy poprosili ochotników o przetestowanie tego. Uczestnicy przeczytali przykłady automatycznie generowanych tweetów na dwa tematy: wycofanie wojsk z Afganistanu i sankcje USA wobec Chin. Krótkie teksty wpłynęły na wolontariuszy. Na przykład w kwestii chińskich sankcji odsetek uczestników sprzeciwiających się takiemu środkowi podwoił się.
Zmniejsz zagrożenia bezpieczeństwa związane z GPT-3
Zespół OpenAI opracował GPT-3, dostarczając mu znaczną ilość tekstu pobranego ze źródeł takich jak Wikipedia i Reddit. Następnie sztuczna inteligencja zdolna do obsługi języka przetworzyła dane. GPT-3 często zaskakiwał obserwatorów pozorną płynnością językową.
Jednak wzorzec języka może być nieprzewidywalny. Czasami generuje niezrozumiały lub niespójny tekst z nienawistnymi lub obraźliwymi terminami. " Aktywnie pracujemy nad zagrożeniami bezpieczeństwa związanymi z GPT-3. Sprawdzamy również każde użycie, zanim zostanie uruchomione, i stosujemy systemy monitorowania w celu ograniczenia i reagowania na niewłaściwe użycie naszego interfejsu API. »Wyjaśnił urzędnik OpenAI.

Powiązane posty