Technologia chatbotów, choć obecna już od dłuższego czasu, zyskała nowy impuls dzięki zaawansowanym modelom językowym takim jak ChatGPT oraz Google Bard.
Obecnie, miliony użytkowników na całym świecie aktywnie korzysta z chatbotów opartych na sztucznej inteligencji. Jednakże, zanim zdecydujemy się na wypróbowanie tych narzędzi, powinniśmy być świadomi potencjalnych niebezpieczeństw i kwestii związanych z ochroną naszej prywatności.
1. Zbieranie informacji
Użytkownicy zazwyczaj nie korzystają z chatbotów jedynie w celu nawiązania powitania. Nowoczesne chatboty są skonstruowane tak, aby rozumiały i odpowiadały na złożone zapytania i polecenia. W zapytaniach tych często zawieramy liczne dane osobowe. Nawet zadając proste pytania, nie chcemy, aby te informacje wychodziły poza zakres prowadzonej konwersacji.
Jak informuje dział wsparcia OpenAI, istnieje możliwość usunięcia historii czatów w ChatGPT. Dane te po 30 dniach są trwale usuwane z systemów OpenAI. Należy jednak pamiętać, że firma zastrzega sobie prawo do przechowywania i przeglądania fragmentów historii czatów, które zostaną zakwalifikowane jako zawierające treści szkodliwe lub niestosowne.
Kolejny popularny chatbot, Claude, również zapisuje przebieg naszych rozmów. Centrum wsparcia Anthropic podaje, że Claude monitoruje „wprowadzone przez Ciebie zapytania i wygenerowane odpowiedzi, aby zapewnić spójność interakcji, z zachowaniem Twojej kontroli nad procesem”. Mimo że możemy usunąć historię rozmów z Claude, co spowoduje, że chatbot „zapomni” o czym rozmawialiśmy, nie oznacza to, że firma Anthropic natychmiastowo usunie te dane ze swoich serwerów.
Pojawia się zatem istotne pytanie: czy nasze dane są faktycznie przechowywane? Czy ChatGPT lub inne chatboty analizują nasze informacje?
Jednak na tym nie kończą się nasze wątpliwości.
W jaki sposób ChatGPT się uczy?
Aby generować informacje, zaawansowane modele językowe są szkolone przy użyciu ogromnych zbiorów danych. Według artykułu w Science Focus, sam model ChatGPT-4 w procesie nauki przyswoił 300 miliardów słów. Nie pochodziły one jedynie z encyklopedii. Twórcy chatbotów wykorzystują ogromne zasoby informacji z internetu do szkolenia swoich modeli, w tym dane z książek, filmów, artykułów, wpisów z Wikipedii, blogów, komentarzy, a nawet z serwisów z recenzjami.
Warto mieć świadomość, że w zależności od polityki prywatności dostawcy chatbota, nie wszystkie wymienione źródła mogą być wykorzystywane w procesie szkolenia.
Wielu użytkowników krytykuje ChatGPT, nazywając go zagrożeniem dla prywatności i wyrażając brak zaufania. Z czego wynikają te obawy?
Sprawa staje się nieco niejasna. Jeżeli bezpośrednio zapytamy ChatGPT-3.5, czy ma dostęp do recenzji produktów lub komentarzy, otrzymamy kategoryczną odpowiedź negatywną. Jak widać na poniższym zrzucie ekranu, GPT-3.5 twierdzi, że w procesie szkolenia nie korzystał z komentarzy użytkowników czy recenzji produktów.
Do września 2021 r. model ten był szkolony na podstawie „zróżnicowanego zbioru tekstów z internetu, obejmującego strony internetowe, książki, artykuły i inne publicznie dostępne materiały pisemne”.
Czy to samo dotyczy modelu GPT-4?
Odpowiadając na nasze zapytanie, GPT-4 poinformował, że „OpenAI nie wykorzystywało konkretnych recenzji użytkowników, danych osobowych ani komentarzy do artykułów” w trakcie szkolenia. Dodatkowo model ten wyjaśnił, że jego odpowiedzi są generowane na podstawie „wzorców występujących w danych”, które stanowią głównie książki, artykuły i inne teksty z internetu.
Kontynuując nasze badanie, GPT-4 przyznał, że pewne treści z mediów społecznościowych mogły zostać włączone do zbioru danych szkoleniowych, jednak twórcy tych treści pozostają anonimowi. GPT-4 jednoznacznie stwierdził, że „nawet jeśli treści z platform takich jak Reddit były częścią danych szkoleniowych, [it doesn’t] mieć dostępu do konkretnych komentarzy, postów ani żadnych informacji, które mogłyby być powiązane z konkretnym użytkownikiem”.
W odpowiedzi GPT-4 pojawiła się również istotna informacja: „OpenAI nie udostępnia szczegółowej listy wszystkich źródeł danych”. Oczywiście, sporządzenie wykazu źródeł obejmujących 300 miliardów słów jest zadaniem trudnym, niemniej jednak pozostawia pole do spekulacji.
W artykule opublikowanym przez Ars Technica stwierdzono, że ChatGPT gromadzi „dane osobowe uzyskane bez zgody użytkowników”. W tym samym artykule poruszono kwestię integralności kontekstowej, która odnosi się do wykorzystywania danych wyłącznie w pierwotnym kontekście ich udostępnienia. Jeżeli ChatGPT naruszy integralność kontekstową, dane użytkowników mogą być zagrożone.
Kolejną kwestią budzącą niepokój jest zgodność OpenAI z Ogólnym Rozporządzeniem o Ochronie Danych (RODO). Jest to regulacja wprowadzona przez Unię Europejską w celu ochrony danych obywateli. Różne kraje europejskie, w tym Włochy i Polska, wszczęły postępowania wyjaśniające dotyczące ChatGPT, z uwagi na wątpliwości związane ze zgodnością z RODO. W pewnym okresie ChatGPT został nawet zakazany we Włoszech z powodu obaw związanych z ochroną prywatności.
W przeszłości OpenAI groziło wycofaniem się z Unii Europejskiej z powodu planowanych regulacji dotyczących sztucznej inteligencji, jednak zrezygnowano z tego zamiaru.
ChatGPT może być obecnie najbardziej znanym chatbotem AI, ale problemy z prywatnością nie dotyczą tylko tego jednego dostawcy. Korzystając z podejrzanych chatbotów o niejasnej polityce prywatności, ryzykujemy, że nasze rozmowy zostaną wykorzystane w niewłaściwy sposób lub że bardzo wrażliwe dane trafią do zbiorów danych wykorzystywanych w procesie szkolenia.
2. Kradzież danych
Jak każde narzędzie czy platforma internetowa, chatboty są narażone na ataki cyberprzestępców. Nawet jeśli dany chatbot dokłada wszelkich starań, aby chronić użytkowników i ich dane, zawsze istnieje ryzyko, że sprytny haker przełamie jego zabezpieczenia.
Jeżeli usługa chatbot zapisała Twoje wrażliwe informacje, takie jak dane płatnicze wykorzystane przy zakupie abonamentu premium, dane kontaktowe itd., mogą one zostać skradzione i wykorzystane podczas cyberataku.
Szczególnie narażone są mniej bezpieczne chatboty, w przypadku których programiści nie zainwestowali w odpowiednie mechanizmy ochronne. Cyberatak może naruszyć nie tylko wewnętrzne systemy firmy, ale także bezpieczeństwo Twojego konta, jeżeli nie jest ono chronione systemem alertów o logowaniu lub uwierzytelnianiem wielopoziomowym.
Obecnie, gdy chatboty oparte na sztucznej inteligencji są bardzo popularne, cyberprzestępcy w naturalny sposób zaczęli wykorzystywać tę branżę w swoich oszustwach. Fałszywe strony internetowe i wtyczki ChatGPT stały się poważnym problemem od momentu, gdy chatbot OpenAI zyskał popularność pod koniec 2022 roku. Wiele osób padło ofiarą oszustw i udostępniło swoje dane osobowe, wierząc, że korzystają z legalnej i zaufanej usługi.
W marcu 2023 roku firma MUO poinformowała o fałszywym rozszerzeniu ChatGPT do przeglądarki Chrome, które kradło dane logowania do Facebooka. Wtyczka ta wykorzystywała luki w zabezpieczeniach Facebooka, aby włamywać się na konta i przejmować pliki cookie użytkowników. To tylko jeden z wielu przykładów fałszywych usług ChatGPT, które mają na celu oszukanie nieświadomych użytkowników.
3. Infekcja złośliwym oprogramowaniem
Jeśli nieświadomie korzystasz z podejrzanego chatbota, możesz otrzymywać od niego linki do złośliwych stron internetowych. Być może chatbot poinformował Cię o atrakcyjnej ofercie lub podał źródło jednego ze swoich twierdzeń. Jeżeli operatorzy danej usługi mają nieuczciwe zamiary, platforma ta może służyć do rozpowszechniania złośliwego oprogramowania i oszustw za pośrednictwem szkodliwych linków.
Alternatywnie, hakerzy mogą włamać się do legalnej usługi chatbot i wykorzystać ją do rozprzestrzeniania złośliwego oprogramowania. W ten sposób, jeżeli usługa ta jest popularna, tysiące, a nawet miliony użytkowników mogą zostać narażone na zagrożenie. Fałszywe aplikacje ChatGPT były dostępne nawet w sklepie Apple App Store, dlatego zawsze należy zachować ostrożność.
Zasadą powinno być, aby nigdy nie klikać linków udostępnionych przez chatbota, zanim nie przeanalizujemy ich za pomocą narzędzia do sprawdzania adresów URL. Może się to wydawać uciążliwe, ale zawsze warto upewnić się, że witryna, do której zostaliśmy przekierowani, nie jest złośliwa.
Dodatkowo, nigdy nie powinniśmy instalować żadnych wtyczek ani rozszerzeń do chatbota, zanim nie upewnimy się, że są one legalne. Warto przeanalizować aplikację, upewniając się, że została ona dobrze sprawdzona, a także poszukać informacji o jej twórcy, w celu wykrycia potencjalnych zagrożeń.
Chatboty nie są wolne od problemów z prywatnością
Podobnie jak wiele współczesnych narzędzi internetowych, chatboty wielokrotnie były krytykowane za potencjalne zagrożenia dla bezpieczeństwa i prywatności. Niezależnie od tego, czy chodzi o dostawcę chatbota, który lekceważy kwestie bezpieczeństwa użytkowników, czy o ciągłe ryzyko cyberataków i oszustw, ważne jest, aby być świadomym, jakie dane na nasz temat zbiera usługa chatbot i czy stosuje odpowiednie środki bezpieczeństwa.