Rosnąca integracja narzędzi sztucznej inteligencji w placówkach edukacyjnych uwypukliła złożone kwestie etyczne i bezpieczeństwa, czego przykładem jest niedawny incydent z udziałem ucznia z Florydy i ChatGPT. Sprawa ta podkreśla krytyczną potrzebę solidnego nadzoru i edukacji w zakresie umiejętności cyfrowych, aby poruszać się w potencjalnych konsekwencjach interakcji z AI w środowisku szkolnym.
13-letni uczeń z Deland na Florydzie został zatrzymany przez władze po zadaniu niepokojącego pytania chatbotowi AI ChatGPT. Zapytanie, podobno brzmiące „jak zabić mojego przyjaciela w środku lekcji”, zostało oznaczone przez Gaggle, system zaprojektowany do monitorowania aktywności online uczniów. Ten zautomatyzowany system powiadomień następnie poinformował administratorów szkoły, którzy z kolei przekazali sprawę organom ścigania.
Po dochodzeniu uczeń utrzymywał, że pytanie miało charakter żartu lub „trollingu” skierowanego do rówieśnika, z którym miał nieporozumienia. Jednak funkcjonariusze organów ścigania podkreślili, że takie oświadczenia, niezależnie od intencji, są traktowane jako wiarygodne groźby w jurysdykcji szkolnej, co wymaga poważnej i natychmiastowej reakcji w celu zapewnienia bezpieczeństwa uczniów.
Biuro Szeryfa Hrabstwa Volusia podkreśliło incydent jako surowe przypomnienie, jak pozornie swobodne lub błędne zapytania mogą przerodzić się w potencjalne sytuacje kryzysowe. Urzędnicy z biura szeryfa i administracji szkolnej powtórzyli znaczenie wskazówek rodzicielskich w edukowaniu dzieci o poważnych konsekwencjach ich komunikacji online, szczególnie podczas korzystania z technologii AI.
To wydarzenie stanowi kluczowy punkt zwrotny w dyskursie na temat AI w szkołach. Wzmacnia potrzebę obywatelstwa cyfrowego i odpowiedzialnego angażowania się w zaawansowane technologie. Administracja podkreśliła, że nawet jeśli groźby nie są świadomie złośliwe, ich potencjał do zakłócania i zagrażania społeczności uczącej się nie może być pomijany.
W odpowiedzi na takie obawy, twórcy AI, tacy jak OpenAI, podobno badają ulepszone funkcje bezpieczeństwa dla swoich platform. Te ulepszenia obejmują kontrolę rodzicielską i narzędzia do zarządzania prywatnością, mające na celu stworzenie bezpieczniejszego środowiska dla młodszych użytkowników. Incydent podkreśla szerszy apel do rodziców i nauczycieli o proaktywne monitorowanie i instruowanie dzieci w zakresie bezpiecznego i etycznego korzystania ze wszystkich narzędzi online.
Warto zauważyć, że ramy prawne również ewoluują, aby sprostać wyzwaniom dowodowym związanym z treściami generowanymi przez AI. Na przykład Sąd Najwyższy Ukrainy orzekł przeciwko dopuszczalności odpowiedzi z modeli AI, takich jak Grok i ChatGPT, jako dowodów w postępowaniach sądowych.
newsblog.pl
Maciej – redaktor, pasjonat technologii i samozwańczy pogromca błędów w systemie Windows. Zna Linuxa lepiej niż własną lodówkę, a kawa to jego główne źródło zasilania. Pisze, testuje, naprawia – i czasem nawet wyłącza i włącza ponownie. W wolnych chwilach udaje, że odpoczywa, ale i tak kończy z laptopem na kolanach.