14
Meritum 4 (79) 2025 Mazowiecki Kwartalnik Edukacyjny
KAROLINA ŻELAZOWSKA-BYCZKOWSKA
raporty, podsumowania. Można także skorzystać z płatnego kursu, aby nauczyć się, jak wygene- rować WOPFU i IPET „bez udostępniania danych osobowych” 21 . To zaś oznacza, że materiały mogą powstać szybciej i dać poczucie większej wydaj- ności , rozumianej jako krótszy czas pracy. Obok wydajności warto jednak mieć na uwadze także dwa inne pojęcia: produktywność , wskazującą, ile wytworzyliśmy dóbr i jakim nakładem czasu lub wysiłku, oraz skuteczność , której miarą jest poziom adekwatności i spełnienia założonych wymagań. Czy powierzenie aplikacjom – wciąż jednak nie- myślącym i nieinteligentnym – wygenerowania dokumentów mających stanowić podstawę działań edukacyjnych, wychowawczych, profilaktycznych, to trafne dążenie do zawodowej wydajności, pro- duktywności czy skuteczności? Tu jednak pojawia się kolejne pytanie, co dokładnie oznacza wyra- żenie „powierzanie aplikacjom”? Aplikacjom, czyli czemu? Komu? W regulaminach i zasadach korzystania z narzę- dzi i aplikacji wykorzystujących modele sztucznej inteligencji znajdziemy informacje, że zawartość generowana przez sztuczną inteligencję może zawierać błędy 22 . Jesteśmy też uprzedzeni, że nie ma gwarancji, że jakakolwiek treść będzie bez- pieczna, a ponadto, że to końcowy użytkownik jest odpowiedzialny za wszystkie działania podejmo- wane w ramach swojego konta 23 . W tym kontekście warto zauważyć, że o ile samo generowanie zajmuje ledwie sekundy, to napisa- nie dobrego promptu oraz uzyskanego wyniku pochłaniają realny czas (i nie tylko czas). Z tego powodu często się zdarza, że dwa ostatnie kroki – sprawdzenie i korekta – zostają pominięte, o czym świadczyć mogą liczne scenariusze, raporty czy propozycje dokumentów udostępnione jako praca własna, a zakończone pytaniem typu: „Chcesz, żebym dodał też…?”. Taki błąd zdarza się. O błędach wiemy, cenimy ich edukacyjny i rozwojowy walor.
Błędy, rzecz ludzka.
Ano właśnie. Ludzka. Gdy błądzi model gene- ratywny – antropomorfizujemy. Nadajemy cechy ludzkie, określając nieprawdę mianem „halucynacji”. Narzędzia i aplikacje miewają imiona, płeć, czasem określony tembr głosu lub akcent 24 . Przepraszają, jeśli zwrócimy im uwagę na nieprawidłowości. Są do tego miłe i niezwykle uprzejme, co sprawia, że błędy w generowanych materiałach łatwiej można wybaczyć, tak jak wybacza się miłej i pomocnej koleżance. W środowisku skupionym wokół AI pojawiają się głosy sprzeciwu wobec takiego podejścia i używa- nia „ludzkiej” terminologii względem dużych modeli językowych (ang. Large Language Model , LLM) 25 . LLM w ogóle nie mogą postrzegać rzeczywistości, więc nie mogą halucynować. Model językowy nie ma celu i pragnienia przekazania prawdy 26 . Jakie to niesie implikacje? Według Benjiego Edwardsa może to sprzyjać przesuwaniu odpowiedzialności z twórców systemu na sam model, sugerując, że to AI „popełnia błąd”, a nie projektanci. W tym kontekście trio autorów: Hicks, Humphries i Slater, zadaje pytanie Czy ChatGPT jest moral- nie odpowiedzialny za swoje oświadczenia lub działania? 27 , na które odpowiedź nabiera mocy w zestawieniu z doniesieniami o wykorzystywaniu sztucznej inteligencji do inwigilacji, dyskryminacji czy szerzenia dezinformacji. Chat GPT – wbrew temu, co deklaruje – nie jest neutralny, co wycho- dzi na jaw w dyskusjach ideologicznych z jego udziałem 28 . Co jeśli generowane treści nie są tylko zabaw- nymi „halucynacjami”, ale mają realny wpływ na sytuację polityczną i bezpieczeństwo? Chatboty, takie jak GPT, mogą podobno wspierać działania 24 Przykładem są liczne aplikacje np. do nauki języków obcych, w któ- rych postać tutora jest wygenerowanym awatarem osoby. 25 P. Durka, Sztuczne inteligencje i biologiczne mózgi , „Postępy Fizyki”, t. 76/2025, z. 1, s. 3-12, https://tiny.pl/rbkbn6r6 26 M.T. Hicks, J. Humphries, J. Slater, ChatGPT is bullshit, „Ethics and Information Technology” nr 26/2024, https://tiny.pl/112vh7_3 27 Ibidem. 28 Chat GPT w szkole. Szanse i zagrożenia , Instytut Badań Edukacyj- nych 2023, https://zpe.gov.pl/chat-gpt
21 Aby nie promować marek lub osób reklamujących takie narzędzia, pominę konkretne przykłady. 22 Transparency Note for Microsoft 365 Copilot , https://tiny.pl/gb_b1479 23 Warunki użytkowania CzatGPT, https://tiny.pl/97f_h30g
Made with FlippingBook - Online Brochure Maker