Kluczowe Aspekty
- Wzrost niepokoju o **tajność danych** w kontekście GenAI jest rezultatem praktyk gromadzenia i przesyłania informacji, co stwarza potencjalne zagrożenia dla użytkowników.
- Integracja sztucznej inteligencji z aplikacjami może wywoływać u użytkowników frustrację i przyczyniać się do zagmatwania interfejsu.
- GenAI nie zawsze okazuje się być pomocna, może ograniczać **innowacyjność** i pochłania znaczną ilość **prądu**.
Generatywna sztuczna inteligencja (GenAI) to bez wątpienia fascynujący krok naprzód w technologii. Pojawia się jednak pytanie, czy faktycznie konieczne jest jej wprowadzanie do każdej aplikacji i usługi, z której korzystamy? Chciałbym przedstawić argumenty, dlaczego uważam, że nie zawsze jest to takie oczywiste.
1. Kwestie poufności w GenAI
Jednym z największych niepokojów związanych z generatywną sztuczną inteligencją jest ochrona **danych osobowych** i **bezpieczeństwo**.
Aplikacje stworzone specjalnie do obsługi AI, takie jak ChatGPT czy Gemini, mogą w pewnym stopniu minimalizować to ryzyko. Jednak, gdy tego typu funkcjonalności zaczynają wkraczać do Google Docs, Wiadomości i innych codziennych aplikacji, staje się wyjątkowo trudne zapewnienie, że wrażliwe informacje nie są narażone na dostęp niepowołanych podmiotów za pośrednictwem AI.
Polityka ochrony prywatności firm rozwijających AI jest zróżnicowana, ale weźmy na przykład OpenAI. OpenAI deklaruje, że gromadzi „Dane osobowe zawarte w wprowadzanych danych, przesyłanych plikach lub opiniach” i zastrzega sobie prawo do ich udostępniania stronom trzecim.
Ponadto, jeśli użytkownik nie zrezygnuje z wykorzystywania jego danych przez OpenAI w procesie trenowania modeli, istnieje ryzyko, że jego informacje zostały już użyte w tym celu. Warto pamiętać, że badacze byli w stanie wyodrębnić dane treningowe ChatGPT, jak informuje 404Media.
Nawet jeśli regulacje ochrony danych dużych firm technologicznych wskazują, że nie udostępniają ani nie wykorzystują danych użytkowników, trudno jest całkowicie zaufać ich zapewnieniom, biorąc pod uwagę nie najlepszą historię tych firm w tym zakresie.
2. Integracja AI z aplikacjami prowadzi do frustracji
Jeśli zdarzyło Ci się przypadkowo aktywować ikonę Meta AI podczas poszukiwania okna czatu w WhatsApp, zdajesz sobie sprawę, jak irytujące potrafią być takie funkcje. Który rozsądny użytkownik uruchamia WhatsApp w celu „wygenerowania wizji wyśmienitego deseru” czy „stworzenia nowego języka”?
Nie tylko w WhatsApp czy Meta; zauważamy, że AI Gemini od Google pojawia się w Wiadomościach, Gmailu, Dysku i innych lokalizacjach. Warto też wspomnieć o podsumowaniach AI w wyszukiwarce Google.
Te funkcje generatywnej AI są szczególnie denerwujące, ponieważ negatywnie wpływają na interfejs użytkownika aplikacji, zwłaszcza gdy są promowane w sztuczny sposób.
3. Generatywna AI nie zawsze jest przydatna
Są sytuacje, w których AI jest niezwykle użyteczna, ale są też takie, w których jej przydatność jest znikoma, albo przynajmniej na razie.
Niestety, firmy technologiczne wydają się bardziej skoncentrowane na dołączeniu do trendu AI, niż na analizie, czy rzeczywiście przyniesie to korzyść użytkownikom.
Tendencja do wdrażania niedopracowanych funkcji AI, które nie są zbyt pomocne dla użytkowników, również nie poprawia sytuacji. I znowu, przeglądy AI w wyszukiwarce Google, które kiedyś sugerowały użytkownikom dodanie kleju do pizzy, stanowią doskonały przykład.
4. Korzystanie z GenAI tłumi kreatywność i autentyczność
Możliwe, że skorzystam z AI, aby napisać formalnego maila, ale gdy piszę wiadomość do bliskich czy komentuję wpis znajomego, nie wyobrażam sobie użycia sztucznej inteligencji. To tylko jeden z argumentów za tym, że media społecznościowe nie powinny korzystać z generatywnej AI.
Podobnie, GenAI w programach graficznych i innych narzędziach dla twórców może być pomocna, ale nie każde oprogramowanie z tej kategorii jej potrzebuje. Ponadto, profesjonalni twórcy wciąż spierają się o to, czy takie narzędzia są w stanie dorównać unikalności i myślom artysty.
Z tych względów nie ma sensu wykorzystywać generatywnej AI w miejscach, gdzie kluczowe znaczenie mają autentyczność i niepowtarzalność.
5. Marnotrawstwo energii
Proces szkolenia i korzystania z generatywnej AI wymaga znacznych ilości **prądu**. Na przykład, szkolenie GPT-3 OpenAI pochłonęło, według szacunków, 1287 MWh [PDF] energii. Ponadto, jak podaje IEA, jedno zapytanie do ChatGPT generuje niemal 10 razy większe zużycie energii niż wyszukiwanie w Google, a ta sama ilość energii mogłaby wystarczyć na zasilanie przeciętnego gospodarstwa domowego w USA przez 120 lat.
Duże zużycie energii jest bardziej uzasadnione, gdy generatywna AI jest wykorzystywana do konkretnej, produktywnej pracy. Jednak integracja GenAI z każdą aplikacją prowadzi do marnotrawienia energii (a także zwiększenia emisji węgla) bez realnych korzyści.
Podsumowując, mimo że generatywna AI może mieć potencjalne zastosowania, z pewnością nie jest technologią, która powinna być obowiązkowym elementem każdej aplikacji. Wręcz przeciwnie, wywołuje obawy o **ochronę danych**, obniża **użyteczność** interfejsów i generuje marnotrawstwo energii. Co najważniejsze, GenAI może potencjalnie negatywnie wpływać na twoje samopoczucie.