W najnowszym artykule opublikowanym w czasopiśmie Medical Teacher, autorstwa m.in. Renaty Szydlak i Andrzeja Kononowicza z naszego Zakładu oraz Stanisława Górskiego z Centrum Innowacyjnej Edukacji Medycznej Collegium Medicum pt. “ChatGPT versus human authors: A comparative study of concept maps for clinical reasoning training with virtual patients”, badamy, czy ChatGPT może wspierać tworzenie map pojęć rozumowania klinicznego dla wirtualnych pacjentów. Porównaliśmy mapy przygotowane przez niestandardowy model GPT (ang. custom GPT) z mapami stworzonymi przez doświadczonych klinicystów przy 10 przypadkach wirtualnych pacjentów z europejskiej kolekcji iCoViP.
Co odkryliśmy?
-
ChatGPT tworzy mapy porównywalne jakościowo z pracą klinicystów. W ocenie lekarzy jakość kliniczna pojęć i połączeń była zbliżona do map eksperckich.
-
Mapy ChatGPT są bardziej rozbudowane, tzn. zawierają więcej pojęć i połączeń, co zwiększa szczegółowość, ale może ograniczać przejrzystość dla osób uczących się.
-
Treści kliniczne były poprawne, jednak skłonność modelu do nadmiernej szczegółowości i słabsza priorytetyzacja sprawiały, że mapy bywały zbyt złożone. Dlatego kluczowa pozostaje rola ekspertów, którzy nadają im właściwy poziom abstrakcji i spójność z procesem klinicznego rozumowania.
-
ChatGPT może znacząco przyspieszyć przygotowywanie materiałów edukacyjnych, ale to klinicyści i dydaktycy zapewniają im odpowiednią strukturę, klarowność i wartość dydaktyczną.
Wniosek:
Sztuczna inteligencja może być wartościowym punktem wyjścia do tworzenia zasobów wspierających naukę rozumowania klinicznego. Ostateczna jakość i użyteczność map zależą jednak od świadomej, kompetentnej edycji dokonanej przez klinicystów i dydaktyków medycznych.
Zachęcamy do lektury pełnego artykułu!
To kolejny krok w kierunku odpowiedzialnego i przemyślanego wykorzystania AI w edukacji medycznej.