Polskie uczelnie nie obawiają się napływu prac stworzonych przez sztuczną inteligencję
Studenci i profesorowie nie mogą się zdecydować, czy ChatGPT jest przydatnym instrumentem badawczym, czy potencjalnym narzędziem przestępstwa. Polskie uczelnie na razie nie mają obaw dotyczących masowych plagiatów, ponieważ sztuczna inteligencja nie weszła jeszcze na odpowiedni poziom umiejętności.
Odkąd w listopadzie ub.r. firma OpenAI uruchomiła swojego chatbota nauczyciele w USA zmagają się z falą prac pisemnych tworzonych z pomocą sztucznej inteligencji. Podczas gdy niektóre systemy szkół publicznych, takie jak nowojorski, zakazały używania ChatGPT na urządzeniach i w sieciach szkolnych, uniwersytety niechętnie poszły w ich ślady. W szkolnictwie wyższym wprowadzenie generatywnej AI wywołało drażliwe pytania o definicję plagiatu i uczciwości akademickiej na kampusach, gdzie nowe cyfrowe narzędzia badawcze pojawiają się cały czas.
Powstanie ChatGPT nie jest wcale pierwszą z obaw związanych z niewłaściwym wykorzystaniem internetu w środowisku akademickim. Kiedy Wikipedia wystartowała w 2001 roku, uczelnie w całym kraju starały się na nowo opracowywać filozofie badawcze i rozumienie uczciwej pracy naukowej, rozszerzając granice polityki, aby dotrzymać kroku innowacjom technologicznym. Teraz problem jest nieco bardziej skomplikowany, ponieważ uczelnie zastanawiają się, jak traktować pracę wyprodukowaną przez boty. Jak zwykle świat szkolnictwa wyższego gra w znaną sobie grę w nadrabianie zaległości, dostosowując swoje oczekiwania i postrzeganie nowinek do tego, tak jak dostosowują się do nich inne zawody. Jedyna różnica polega na tym, że dziś internet nauczył się myśleć samodzielnie.
Definicja plagiatu mówi o akcie wykorzystania czyjejś pracy lub pomysłów bez zapytania o zgodę i przedstawienie efektów pracy pierwotnego autora jako swoich. Ale kiedy praca jest generowana przez coś, a nie przez kogoś, definicja ta staje się dość trudna w zastosowaniu. Jak ujmuje to Emily Hipchen, członkini zarządu Komisji Kodeksu Akademickiego Uniwersytetu Browna, wykorzystanie generatywnej AI przez studentów prowadzi do krytycznego punktu spornego. - Jeśli plagiat jest kradzieżą dzieła jakiejś osobie, to nie jestem pewna, czy mamy w tym przypadku osobę, której się kradnie - mówi.
Z drugiej strony studenci popełniając plagiat, często "pożyczają" materiał z jakiegoś nieokreślonego miejsca - na przykład ze strony internetowej, która nie ma wyraźnego przypisania autorstwa.
Poglądy studentów na ChatGPT to zupełnie inna kwestia. Są tacy, którzy widzą w nim tylko kolejne narzędzie, jak sprawdzanie pisowni czy nawet kalkulator. Dla studenta drugiego roku Brown University Jacoba Gelmana, ChatGPT to jedynie wygodny asystent badawczy i nic więcej.
- Nazywanie stosowania ChatGPT do wyciągania wiarygodnych źródeł z internetu oszustwem to absurd. To tak jakby powiedzieć, że używanie internetu do prowadzenia badań jest nieetyczne - mówi Gelman.
- Dla mnie ChatGPT jest badawczym odpowiednikiem asystenta pisania na maszynie Grammarly. Używam go z praktycznych względów i to naprawdę wszystko - dodaje.
Chociaż niektórzy studenci używają bota tylko do przyspieszenia badań, inni mogą korzystać z jego funkcjonalności do generowania gotowych prac.
Mogłoby się wydawać, że kwalifikacja oszustwa powinna być czymś oczywistym, ale różne szkoły reprezentują różne podejścia. I tak, Bryn Mawr College uważa każde użycie platform AI za plagiat. Ponieważ ChatGPT jest wciąż nowinką techniczną, zrozumiała jest dyskusja na temat etyki. Nie jest też jasne, jakie zasady pozostaną w mocy, gdy opadnie kurz.
Według kanclerza SGH dr. Marcina Dąbrowskiego, większość prac pisemnych ocenianych w procesie kształcenia powstaje w ramach stacjonarnego egzaminu, podczas którego trudno o wsparcie zewnętrzne. Ponadto prace projektowe wymagają kooperacji - z wykładowcą, ale często i innymi studentami.
- Ta interakcja jest częścią tworzonego produktu. Ogranicza to w dużej mierze pole manewru. W przyszłości będziemy ponadto rekomendować narzędzia do detekcji treści tworzonych przez sztuczną inteligencję. Niestety obecnie dostępne narzędzia nie są w pełni niezawodne, prace nad modelem wykrywania takich treści cały czas trwają - ocenia w rozmowie z Interią Biznes dr Dąbrowski.
Z kolei prorektor ds. dydaktyki i studentów SGH dr hab. Krzysztof Kozłowski podkreśla, że specyfika uczelni biznesowej, na której istnieje kierunek Big Data, implikuje również większą niż krajowa świadomość wykładowców, co do wyzwań, jakie stwarza Chat GPT.
- Wykładowcy SGH mają do dyspozycji oprogramowanie antyplagiatowe, jeśli zajdzie potrzeba weryfikacji prac zaliczeniowych. Prace dyplomowe są weryfikowane w ten sposób obowiązkowo - mówi wykładowca akademicki. Sam jednak przyznaje, że narzędzia te nie zawsze radzą sobie z nowo powstającymi wyzwaniami. - Bacznie obserwujemy te procesy - dodaje.
Dr Jacek Piecha z Wydziału Prawa i Administracji Uniwersytetu Warszawskiego przyznaje, że krąży wiele obaw, że sztuczna inteligencja kiedyś zastąpi człowieka.
- Pamiętajmy, że AI nie postrzega świata w ten sam sposób, co ludzie i nie ma na razie mowy o myśleniu w takim znaczeniu jak robi to człowiek. Mówimy o algorytmach (takich jak ChatGPT), jako o narzędziach, które mają zdolność do uczenia się. Do samodzielnych myśli daleka droga, zwłaszcza że sami nie do końca rozumiemy, jakie reakcje chemiczne zachodzą w mózgu w trakcie myślenia - stwierdził w rozmowie z Interią Biznes.
Czy Uniwersytet Warszawski ma już problem z falą niesamodzielnych prac?
- Na UW nie widzę jeszcze zbyt dużych obaw związanych z wykorzystaniem przez studentów CHatGPT do tworzenia prac. Przede wszystkim instrument ten tworzono w oparciu o język angielski, podobnie jak pierwszy tzw. training set, z pewnością był zbiorem tekstów po angielsku. Na polskich uczelniach posługujemy się ciągle językiem polskim - mówi dr Piecha.
- Braki w zasobach po polsku sprawiają, że błędy merytoryczne popełniane przez AI są dość łatwe do wychwycenia. Co ciekawe, ChatGPT zdradza pewną skłonność do konfabulacji, do "łączenia kropek" na siłę, przez co udziela dość dziwnych odpowiedzi - dodaje.
Zdaniem naszego rozmówcy ChatGPT to nie jest bardzo innowacyjny produkt (podobne algorytmy już funkcjonują od jakiegoś czasu), a jego głównymi zaletami są popularność i bezpłatny dostęp.
- Uważam, że jeszcze przez kilka lat AI nie będzie zagrożeniem. Polskie szkoły wyższe powinny jednak już teraz zacząć przygotowywać się do takich sytuacji, tworzyć zespoły zajmujące się koncepcjami AI i zagrożeniem dla procesu edukacyjnego, albo być może myśleć nad nowym podejściem do kształcenia, które dostosuje się do nowych okoliczności - podsumowuje wykładowca UW.
Postanowiliśmy zapytać także ChatGPT, co sądzi o wykorzystywaniu wygenerowanych przez niego odpowiedzi w pracach uczniów i studentów. - Szkoły i uczelnie powinny walczyć z plagiatem i nieuczciwym wykorzystaniem prac innych osób, w tym również fragmentów napisanych przez ChatGPT lub inne modele językowe. Zachęcanie do samodzielnego myślenia i uczenie zasad etycznego korzystania z informacji to ważne wartości edukacyjne - odpowiedziała nam sztuczna inteligencja.
Jej zdaniem jest możliwe, że wzrośnie liczba przypadków nieuczciwego wykorzystywania tekstów napisanych przez ChatGPT i inne modele językowe, ale to nie oznacza, że takie postępowanie jest nowym problemem.
Krzysztof Maciejewski