5 sposobów, w jakie generatywna sztuczna inteligencja już psuje media społecznościowe

Rewolucja Generatywnej Sztucznej Inteligencji w Świecie Mediów Społecznościowych

W ostatnich latach jesteśmy świadkami dynamicznego rozwoju generatywnej sztucznej inteligencji (AI). Jej wpływ na platformy mediów społecznościowych staje się coraz bardziej zauważalny, zmieniając sposób, w jaki komunikujemy się i konsumujemy treści online. Pomimo licznych innowacji i możliwości, jakie niesie ta technologia, użytkownicy internetu coraz częściej dostrzegają jej negatywne aspekty, które mogą poważnie zakłócić jakość interakcji w sieci. Warto przyjrzeć się bliżej problemom związanym z generatywną AI, takim jak rozprzestrzenianie dezinformacji, zalew spamu i utrata autentyczności w mediach społecznościowych. W niniejszym artykule skupimy się na pięciu głównych zagrożeniach wynikających z implementacji tej technologii w przestrzeni mediów społecznościowych. Zastanówmy się, jak to wszystko wpływa na naszą codzienność.

1. Zalew Niechcianej Treści Generowanej przez AI

Użytkownicy platform takich jak Facebook coraz częściej napotykają tzw. „AI-szlam”. Są to niepożądane efekty działania generatywnej AI, które objawiają się m.in. surrealistycznymi grafikami i bezsensownymi przepisami kulinarnymi. Istnieje nawet specjalne konto na platformie X, dokumentujące tego typu zjawiska na Facebooku.

Często „AI-szlam” jest tworzony przez fałszywe strony, które chcą zyskać popularność. Algorytmy Facebooka promują treści, które cieszą się dużym zainteresowaniem, co sprawia, że tablice użytkowników mogą być zalewane takimi bezsensownymi treściami. Generatywna AI bez trudu tworzy spamowe posty, przez co wartościowe treści znikają pod naporem nieistotnych informacji.

2. Erozja Autentyczności

Źródło: Shutterstock

Autentyczność nigdy nie była mocną stroną mediów społecznościowych. Często influencerzy kreują idealizowane obrazy swojego życia, aby promować określony wizerunek lub sprzedać produkt, za który otrzymali wynagrodzenie.

Jednak AI jeszcze bardziej pogłębia problem braku autentyczności. TikTok testuje wirtualnych influencerów, którzy umożliwią firmom reklamowanie swoich produktów za pomocą wygenerowanych cyfrowo awatarów. Instagram wprowadza funkcję pozwalającą influencerom na tworzenie AI-botów, które będą odpowiadać na wiadomości od fanów. Informację o tych testach przekazał CEO Meta, Mark Zuckerberg, na swoim kanale na Instagramie.

Erozja autentyczności nie dotyczy tylko influencerów. AI jest również wykorzystywana do generowania postów przez zwykłych użytkowników na platformach takich jak Reddit i X (dawniej Twitter). Choć chatboty istnieją od dawna, pojawienie się zaawansowanych modeli językowych sprawia, że coraz trudniej jest odróżnić prawdziwe treści od tych wygenerowanych sztucznie. Każdego dnia na Reddicie można spotkać użytkowników oskarżających innych o posługiwanie się AI przy pisaniu postów i historii.

Platformy AI, które są rozwijane przez firmy z branży mediów społecznościowych, wciąż są na etapie testów, co oznacza, że zdarzają im się błędy. Niektóre z tych pomyłek przyczyniają się do dezinformacji lub podważają zaufanie użytkowników do danej platformy.

Na przykład, Meta AI odpowiedziało na post w grupie na Facebooku, twierdząc, że jest rodzicem dziecka z „2e” (podwójnie wyjątkowego) ucznia zapisanego do programu dla uzdolnionych studentów. Informację o tym incydencie opublikowało Sky News. Na szczęście odpowiedzi Meta AI są wyraźnie oznaczone na Facebooku, co pozwala użytkownikom zorientować się, że dana wypowiedź nie jest autentyczna. Niemniej jednak takie wpadki podważają wiarygodność narzędzi AI, kiedy angażują się w dyskusje, w które nie powinny się wtrącać.

Z kolei Grok AI (chatbot AI na platformie X) spotkał się z krytyką za generowanie dezinformacji. W jednym z takich przypadków chatbot oskarżył gracza NBA, Klay’a Thompsona, o niszczenie domów, po tym jak błędnie zinterpretował koszykarski slang, w którym nieudane rzuty nazywa się „cegłami”.

Chociaż niektóre pomyłki AI są zabawne, inne formy dezinformacji są o wiele bardziej niepokojące i mogą prowadzić do poważnych konsekwencji.

3. Realizacja Tezy o Martwym Internecie

Teoria Martwego Internetu zakłada, że większość treści w sieci jest generowana przez boty. Choć kiedyś można było traktować to z przymrużeniem oka, teraz, gdy jesteśmy zalewani spamem i odpowiedziami generowanymi przez AI, ta idea wydaje się coraz bardziej realistyczna.

Fakt, że firmy medialne również wdrażają boty jako użytkowników, sprawia, że ta teoria jest bliższa rzeczywistości niż kiedykolwiek. Doszło nawet do uruchomienia Butterflies AI, platformy społecznościowej, gdzie niektórzy użytkownicy to jedynie boty AI. Chociaż boty mogą być użyteczne, ich udawanie prawdziwych użytkowników nie wydaje się atrakcyjne.

W kontekście codziennych doświadczeń użytkowników generatywna AI ułatwiła spamowym botom naśladowanie prawdziwych ludzi. Niedawno, publikując post na X, w którym szukałem osoby do zlecenia pracy artystycznej, moja skrzynka pocztowa została zalana odpowiedziami od botów. Oddzielenie prawdziwych użytkowników od botów staje się coraz trudniejsze.

4. Potrzeba Ochrony Treści przed Zbieraniem Przez AI

Użytkownicy szukają sposobów na ochronę swoich treści przed wykorzystaniem w bazach danych AI. Nie zawsze jest to jednak tak łatwe, jak zrezygnowanie z uczestnictwa w sieci. Jeśli twoje posty są publiczne, istnieje duża szansa, że już zostały wykorzystane do szkolenia AI.

Z tego powodu użytkownicy wypróbowują różne rozwiązania, aby chronić swoje dane, w tym ustawianie prywatnych profili i stosowanie zanieczyszczeń danych. Chociaż zastosowanie Nightshade do zanieczyszczania dzieł sztuki nie wpływa na ich widoczność dla użytkowników, inne formy zanieczyszczeń mogą oddziaływać na treści, które widzimy w mediach społecznościowych.

Jeśli coraz więcej użytkowników przejdzie na prywatne profile, w bardziej otwartych sieciach społecznościowych, trudniej będzie odkrywać interesujących ludzi i treści. A gdy artyści zaczną unikać platform, które dostarczają dane treningowe dla AI, osoby pragnące podziwiać ich prace, będą miały utrudniony dostęp, chyba że zdecydują się na korzystanie z niszowych platform.

Mimo pewnych pozytywnych aspektów generatywnej AI w mediach społecznościowych, niektórzy uważają, że nie jest ona niezbędna. Jednak, niezależnie od naszych opinii, generatywna AI już w istotny sposób zmieniła oblicze mediów społecznościowych.

Podsumowanie

Reasumując, generatywna sztuczna inteligencja wywiera silny wpływ na media społecznościowe, wywołując wiele kontrowersji. Od zalewu spamu po erozję autentyczności, coraz lepiej rozumiemy wyzwania, przed którymi stoimy w erze cyfrowej. Pomimo pewnych korzyści, jakie może przynieść generatywna AI, kluczowe jest, aby użytkownicy i twórcy treści zaczęli zastanawiać się, jak chronić swoje wartości w tej nowej, dynamicznej rzeczywistości. Ostatecznie to umiejętność odpowiedzialnego korzystania z technologii może okazać się kluczem do zachowania jakości interakcji w sieci.