„Jde o velmi aktuální téma. AI můžeme vnímat jako problém, nebo ji brát jako velkou příležitost. Já jsem pro druhou možnost. Jsou před námi samozřejmě i výzvy v tom, zda AI přísně kontrolovat, nebo ji „naučit“, aby se stala naším pomocníkem, a ne naším velitelem,“ řekl na úvod setkání prorektor MU pro internacionalizaci a vnější vztahy Petr Suchý.
Diskusi uvedla svou prezentací viceprezidentka a vedoucí informačního oddělení Harvardovy univerzity Klara Jelinkova, která představila, jak Harvard přistoupil k využívání umělé inteligence (AI), jaká zavedl pravidla či omezení pro studující, vyučující i administrativu.
Při využívání AI musíme mít na paměti člověka
„Studie z Harvard Business school vytvořená se zaměstnanci Boston Consulting Group ukazuje, že generativní AI zvyšuje kvalitu práce, kterou v tomto výzkumu hodnotili lidé. Kromě jiného ukazuje, že i minimální trénink v užívání AI zlepšuje výstupy. Ukazuje se, že efektivnější je cílené vzdělávání, spojené třeba s pracovním prostředím či postupy než všeobecná školení,“ řekla na úvod Jelinkova.
Zdůraznila, že umělá inteligence bezprostředně nenahradí spoustu lidí, jak se někdy tvrdí, protože v tuto chvíli ani firemní sféra pořádně neví, jak s AI efektivně pracovat, aby přinášela zisk a zároveň dodržovala pravidla. „Business tedy řeší podobné problémy jako vysoké školy, což pro ně znamená výzvu. Univerzity se mohou stát lídry v této oblasti či se alespoň zapojit do výzkumu benefitů a rizik využívání AI,“ vysvětlila Jelinkova. Podle jejích slov vůdčí instituce dávají jasná doporučení a sdílejí příklady dobré praxe, které ale umožňují experimenty s AI. Instituce také vytvářejí vlastní nástroje založené na umělé inteligenci, spolupracují s průmyslem a podporují rozdílné potřeby studujících, vyučujících, vědců i zaměstnanců.
„O cílových skupinách je při nastavování podmínek, pravidel či nástrojů třeba přemýšlet odděleně, každá z nich má jiné potřeby.“ Harvard jako americká soukromá univerzita s velkým mezinárodním dosahem ale řeší například i otázky návratnosti investic do AI či dodržování právních regulací jejího používání napříč Spojenými státy i světem.
Na Harvardu začali otázku využívání AI řešit už v roce 2023 se spuštěním prvních verzí ChatGPT a Claude. V prvé řadě hledala univerzita možnosti bezpečného přístupu k těmto nástrojům a rychle vydala první návody, jak s AI pracovat. Týkaly se například bezpečnosti dat, osobních údajů či experimentování. Vznikla také memoranda o tom, kde je využití AI zakázané.
Kvůli ochraně duševního vlastnictví zprovoznil Harvard velmi rychle sandbox, tedy bezpečné IT prostředí, pro práci s AI. Univerzita také postupně rozšiřovala možnosti licencí a vytvářela vlastní nástroje využívající AI. Zaměřila se na tři hlavní skupiny, studující, vědce a administrativu, pro které vytvářela specifické možnosti, jak AI využívat. Studujícím například zajistila licence pro využívání ChatGPT, aby zajistila rovné podmínky. Pro vědce vznikly například grantové programy podporující využívání AI ve výuce či výzkumu a na administrativu se zaměřily inovativní programy či budování možností pro sdílení dobré praxe.
„Od počátku se také snažíme šířit myšlenku, že za výstupy, byť vytvořené AI nebo s její pomocí, je vždy zodpovědný člověk,“ zdůraznila Jelinkova.
AI používejme trasparentně
Podobné přístupy k využívání AI mají i další univerzity, jejichž zástupci se diskuse zúčastnili. Po úvodní prezentaci se zaměřili na konkrétní otázky a úskalí plynoucí z možností, které v současnosti generativní AI nabízí.
Například ředitelka Centra zahraniční spolupráce MU Violeta Osouchová vyšla z osobní zkušeností z posuzování projektových žádostí, mezi nimiž se v poslední době objevují i ty, sepisované s pomocí umělé inteligence. Přišla s otázkou, jak vlastně takové práce posuzovat.
Diskutující se v podstatě shodovali, že je třeba šířit osvětu v tom, že využívání nástrojů AI musí být transparentní. Je tedy potřeba dbát, aby byl podíl AI přiznaný. „Občas to ale naráží na fakt, že lidé neví, že vlastně tyto nástroje využívají. Když si například zapnou při psaní dokumentů Grammarly, využívají nástroj AI,“ podotkla Naomi McLaughlan z německé Rhine-Waal University of Applied Sciences.
Všichni potvrdili, že není možné vytvořit nástroje pro detekci výstupů vytvořených AI, protože celý obor je velmi dynamický. Zároveň zdůraznili, že principy akademické integrity jsou stále dané a platí, že není možné vydávat cizí práci za vlastní, což platí i pro výstupy generované umělou inteligencí.
Dynamika vývoje nástrojů a možností generativní AI nastolila nejen v této diskusi také velmi zásadní otázku, a to je budoucnost vzdělávání. „Samozřejmě diskutujeme o tom, jak bude vypadat výuka, co očekávají studenti od univerzity, co my očekáváme od nich, řešíme, s jakými znalosti a zkušenostmi mají odcházet ze školy do světa, kde je úroveň automatizace a poznání, která tady nikdy dříve nebyla,“ podotkla k tématu Jelinkova. Dodala, že je potřeba přemýšlet nad tím, co učit děti a studující, co budou v budoucnu potřebovat pro to, aby si poradili s novými a rychle se rozvíjejícími technologiemi.
„Snažíme se už integrovat AI gramotnost do našich studií, protože svět bude takto fungovat. Chceme vzdělávat studenty tak, aby byli na svět s AI připravení, ale je to dlouhá cesta,“ dodal John Hill z University of Derby.
Jak vyplynulo z diskuse, v budoucnu se vysoké školy budou muset vypořádat s tím, zda je aktuální podoba vzdělávání na nich odpovídající dnešní době a zda je nečeká zásadní změna směrem k personalizovanému vzdělávání.