Autor: Stanisław Zabandżała
Narzędzia wykorzystujące technologię generatywnej sztuczna inteligencja (GenAI), stały się w ostatnich latach czymś tak samo oczywistym dla studentów, jak wyszukiwarka internetowa czy edytor tekstu, bez których trudno wyobrazić sobie codzienne funkcjonowanie. Równocześnie uczelnie zmagając się z problemem niesamodzielności prac pisemnych, zaczęły sięgać po “detektory AI”, które w teorii mają wykrywać, czy esej napisał człowiek, czy został w całości wygenerowany przez model językowy.
Problem polega na tym, że regulacje “nie nadążają” za zmianami powodowanymi przez nowe technologie, co może prowadzić do naruszeń praw przysługujących osobom studiującym. Kwestie te bardzo mocno wchodzą w obszar praw studenta, ochrony danych czy rzetelności postępowania dyscyplinarnego.
Z perspektywy praw studenta kluczowe są dwie kwestie: po pierwsze, jak korzystać z AI w sposób przemyślany, etyczny i bezpieczny, a po drugie, co można zrobić, gdy detektor niesłusznie wskaże Twoją pracę jako wygenerowaną przez AI.
AI jako wsparcie, a nie zastępstwo
Podstawową zasadą, która wciąż obowiązuje niezależnie od rozwoju nowych technologii, jest wymóg zawarty w Art. 76 ust. 2 ustawy Prawo o szkolnictwie wyższym i nauce (PSWiN), wskazujący, że praca dyplomowa ma być samodzielnym opracowaniem zagadnienia przez studenta, które potwierdzi wiedzę i umiejętności związane z kierunkiem studiów. Zasada ta może znaleźć także odzwierciedlenie w przypadku prac pisemnych i innych metod zaliczeń, które pozwolą na potwierdzenie na osiągnięcie przez studenta określonych efektów uczenia się przypisanych do konkretnych zajęć.
W obu przypadkach poleganie w całości na narzędziach AI w procesie przygotowania pracy może rodzić wątpliwości i przeszkadzać w zdobywaniu wiedzy i umiejętności. Z drugiej strony umiejętne korzystanie z nowych technologii może przyspieszyć i pomóc w procesie uczenia się, a nie go hamować.
Korzystanie z AI nie jest więc z definicji zakazane, ale nie może prowadzić do sytuacji, w której model językowy faktycznie zastępuje Twój wkład intelektualny. Mądre korzystanie z AI polega raczej na tym, że traktujesz ją jak bardzo sprawnego asystenta: prosisz o wyjaśnienie trudnego pojęcia prostszym językiem, o propozycję lepszej struktury tekstu, o podpowiedź, jakie kontrargumenty warto rozważyć, albo o pomoc w korekcie językowej. W każdej z tych sytuacji student musi mieć kontrolę nad procesem twórczym i decydować, co z tych propozycji wykorzystać, weryfikować wygenerowaną treść i sformułować własny, oryginalny tekst.
Granica zaczyna się przesuwać w stronę naruszenia, gdy „praca” polega przede wszystkim na kopiowaniu, lekkim przerabianiu i „humanizowaniu” fragmentów wygenerowanych przez AI po to, aby zostały uznane za tekst samodzielny. Jeszcze gorzej, gdy model będzie wykorzystany do przeredagowania czyjejś pracy tak, żeby efekt ostateczny nie wyglądał na plagiat.
Dobre nawyki, które chronią w razie sporu
Przy uczciwym korzystaniu z AI warto wziąć pod uwagę, że pewne nawyki pełnią funkcję zabezpieczenia, gdyby ktoś w przyszłości niesłusznie podważył Twoją samodzielność. Przede wszystkim dobrze jest pracować w środowisku, które automatycznie zapisuje historię wersji, czyli w praktyce w chmurze (Google Docs, Word online, inne edytory). Jeżeli masz kilka kolejnych wersji dokumentu, szkice, konspekty, notatki z lektur, to w razie sporu możesz pokazać nie tylko ostateczny tekst, ale cały proces jego powstawania. Dla komisji dyscyplinarnej może być to dowód, że nad pracą rzeczywiście pracowałeś samodzielnie i nie została ona wygenerowana w kilka minut.
Powyższa sugestia może brzmieć jak konieczność udowadniania swojej niewinności (w odróżnieniu od zasady prawa mówiącej, że ciężar dowodu jest po stronie oskarżyciela) jednak w obecnej sytuacji braku jasnych wytycznych i częstego polegania na wadliwych detektorach AI jest to jeden ze sposobów na uniknięcie trudnych sytuacji, dopóki nie zostanie zwiększona świadomość o wadliwości różnego rodzaju “wykrywaczy” AI.
W sytuacji, w której korzystanie z AI jest dopuszczalne, konieczne jest ujawnienie, w jaki sposób zostały wykorzystane narzędzia AI (np. do korekty językowej albo do zaproponowania poprawek). Będzie to budować Twoją wiarygodność i pokazywać, że nowe technologie są wykorzystywane w sposób odpowiedzialny i prowadzący do najlepszych efektów.
Co robić, gdy zostaniesz fałszywie oskarżony o korzystanie z AI?
Jeżeli mimo wszystko znajdziesz się w sytuacji, w której prowadzący zarzuca Ci użycie AI, a Ty jesteś przekonany o swojej uczciwości, zacznij od uporządkowania sprawy. Poproś o przedstawienie konkretnego zarzutu i jego podstaw: czego dokładnie dotyczy, jakie przepisy regulaminu lub ustawy miały zostać naruszone oraz jakiego narzędzia użyto do analizy Twojej pracy (poproś o raport z tego narzędzia). Warto także zwrócić się o pomoc do rzecznika praw studenta na uczelni, do ogólnopolskiego Rzecznika Praw Studenta przy PSRP albo do samorządu studenckiego.
Równolegle zabezpiecz swoje dowody: historię zmian dokumentu, kolejne wersje pliku, notatki, konspekty, korespondencję z prowadzącym. Warto spisać własne, chronologiczne wyjaśnienie, jak powstawała praca: kiedy zacząłeś, jakie źródła wykorzystałeś, jakie były etapy, czy i w jaki sposób korzystałeś z narzędzi cyfrowych. Jeżeli korzystałeś z AI w zakresie, który Twoim zdaniem mieści się w granicach dopuszczalnego wsparcia (np. korekta językowa) lepiej uczciwie to opisać.
W kolejnych krokach masz prawo zakwestionować traktowanie wyniku detektora, jako jedynej podstawy zarzutu, powołując się zarówno na badania naukowe i praktykę uczelni zagranicznych, które pokazują wysokie ryzyko tzw. false positive. Kluczowe jest to, żebyś pamiętał o terminach odwoławczych wskazanych w przepisach uczelni i ustawie. Ich przekroczenie często zamyka drogę do kwestionowania orzeczenia.
Podsumowując: AI nie zawiesza praw studenta, tylko czyni je bardziej potrzebnymi
Sztuczna inteligencja nie zniknie z uczelni, a wręcz przeciwnie – będzie coraz głębiej wchodzić w procesy nauczania, oceniania i zarządzania. Dla studentów oznacza to konieczność nauczenia się dwóch rzeczy jednocześnie: odpowiedzialnego korzystania z AI, jako narzędzia wspierającego własną naukę oraz świadomego korzystania ze swoich praw wtedy, gdy to uczelnia używa algorytmów wobec nich.