Progresivní studenti díky umělé inteligenci dnes běžně dokážou vystřihnout propracovanou seminárku na jakékoliv téma doslova za pár hodin.
Využití schopností AI jazykových modelů ale zajímají také vědce a výzkumníky. A pro příklady není třeba chodit daleko. Čeští výzkumníci z Karlovy univerzity letos na konci května publikovali na toto téma v časopise Journal of Medical Internet Research vědecký článek.
Autoři se ale na schopnosti umělé inteligence podívali z jiné strany. Studie s názvem „Artificial Intelligence Can Generate Fraudulent but Authentic-Looking Scientific Medical Articles: Pandora’s Box Has Been Opened“, jejíž autory jsou MUDr. Martin Májovský a jeho kolegové, se zabývá využitím jazykových modelů umělé inteligence, jako je ChatGPT (Chat Generative Pre-trained Transformer), při generování podvodných vědeckých článků. Tyto materiály, které si na zadané téma umělá inteligence doslova „cucá z prstu“, totiž vypadají pozoruhodně autenticky. Výstupy výzkumné studie tak vyvolávají oprávněné obavy z možného narušení integrity současného vědeckého výzkumu a důvěryhodnosti publikovaných článků.
Výzkumníci z UK se při svém bádání zaměřili na schopnosti současných jazykových modelů umělé inteligence při vytváření vysoce kvalitních podvodných lékařských článků z oblasti neurochirurgie, psychiatrie a statistické analýzy. Tým použil populární chatbot s umělou inteligencí ChatGPT s jazykovým modelem GPT-3 od společnosti OpenAI. S jeho pomocí vygeneroval zcela smyšlený vědecký článek z oblasti neurochirurgie. Informace a instrukce pro sestavení článku byly upřesňovány v průběhu generování odpovědí ChatGPT. To výzkumníkům umožnilo postupně zlepšovat kvalitu výstupu.
Výsledky této ověřovací studie byly doslova zarážející. Jazykový model umělé inteligence totiž úspěšně vytvořil podvodný článek, který se z hlediska použití slov, struktury vět a celkové kompozice velmi podobal skutečnému vědeckému článku. Článek obsahoval standardní části, jako je abstrakt, úvod, metody, výsledky a diskuse, a také tabulky a další údaje. Překvapivě celý proces tvorby článku trval pouhou jednu hodinu, aniž by byl uživatel z řad lidí speciálně vyškolen.
Ale i když článek vytvořený umělou inteligencí vypadal propracovaně a bezchybně, při bližším zkoumání odborní čtenáři nacházeli sémantické nepřesnosti a chyby zejména v odkazech. Některé odkazy totiž byly nesprávné a jiné dokonce vůbec neexistovaly.
Závěry této studie proto zdůrazňují význam vypracování etických pokynů a postupů pro používání jazykových modelů AI při skutečném vědeckém psaní a výzkumu. S dalším rozvojem AI se pro vědeckou komunitu totiž stává klíčovými úkoly jednak ověřování přesnosti a pravosti obsahu generovaného těmito nástroji. A dále zavádění mechanismů pro odhalování a prevenci podvodů a nekalých praktik.
Autoři studie zdůrazňují, že je třeba najít lepší způsob, jak ověřovat přesnost a pravost obsahu generovaného umělou inteligencí. Jak toho ale dosáhnout, není zatím tak jasné. Už dnes se objevují názory, že by autor měl alespoň deklarovat, do jaké míry mu umělá inteligence pomáhala při psaní a analýze článku.
Na druhou stranu je potřeba se naučit žít s umělou inteligencí i ve světě vědy a výzkumu. Modely jako ChatGPT mají opravdu reálný potenciál zvýšit efektivitu a přesnost tvorby dokumentů, analýzy výsledků a jazykových úprav. Dokonce mohou zrychlit výzkum a zavádění jeho výsledků do praxe. Vždyť tvorba dokumentů nebo psaní vědeckých článků zaberou z celého výzkumu podstatnou část času. Opatrným a zodpovědným používáním těchto nástrojů tak mohou výzkumní pracovníci využít jejich sílu a zároveň minimalizovat riziko jejich zneužití.
Zdroj: JMIR Publications