Na naszej uczelni spotkali się ks. prof. Krzysztof Pawlina, rektor Akademii Katolickiej w Warszawie i przewodniczący projektu Dialog Nauk Pro Tempore, prof. Zbigniew Gaciong, rektor WUM, prof. Przemysław Biecek z Wydziału Matematyki i Nauk Informatycznych Politechniki Warszawskiej, dr hab. Jan Borysowski z Zakładu Immunologii Klinicznej WUM. Dyskusję poprowadził o. dr Janusz Pyda z Instytutu Tomistycznego i Akademii Katolickiej w Warszawie.
– Przedmiotem naszej debaty jest sztuczna inteligencja. Temat ten wywołuje obecnie bardzo wiele emocji. Od nadziei, że będzie to wybawienie dla świata aż do obaw, że możemy stać się obiektem buntu maszyn. Jestem przekonany, że znakomici paneliści tę kwestię rozwiążą – powiedział prof. Zbigniew Gaciong, otwierając debatę.
Najważniejsze zastosowania
Nie ma chyba takiej dyscypliny medycznej, w której sztuczna inteligencja nie mogłaby znaleźć zastosowania. Jednak wszyscy eksperci zgodzili się, że obecnie najczęściej wykorzystywana jest w radiologii.
Prof. Gaciong przypomniał, że w czasie pandemii Covid wprowadzenie algorytmów radiologicznych bardzo uprościło postępowanie z pacjentami – pozwalało od razu sprawdzić, w jakim stopniu „są zajęte płuca” i szybko wdrożyć odpowiednie postępowanie.
– Wchodzą też nowe technologie, które pozwalają zautomatyzować badanie ultrasonograficzne. Aparat sam robi badanie i uzyskany obraz potrafi poddać analizie – mówił prof. Gaciong. Rektor zwrócił też uwagę na kolejny obszar do wykorzystania algorytmów, czyli na patologię. Są już wyniki, które pokazują, że ocena wycinka patologicznego wykonana przez komputer może być równie dokładna jak ta którą przeprowadził lekarz.
Natomiast dr hab. Jan Borysowski wskazał na ciekawe zastosowanie A.I. w badaniach biomedycznych.
Co z relacją lekarz-pacjent
Eksperci zastanawiali się również, czy sztuczna inteligencja może utrudniać relację lekarz-pacjent.
– Mówiąc o sztucznej inteligencji w medycynie często wyobrażamy sobie sytuację, w której poza pacjentem i komputerem nie ma nic innego. Tymczasem zdarza się tak bardzo rzadko – zauważył prof. Przemysław Biecek. I podkreślił, że komputer najczęściej pomaga lekarzowi. I może pomagać zarówno w znalezieniu zmian chorobowych, jak i w empatycznym przedstawieniu diagnozy pacjentowi.
Podczas dyskusji padło również pytanie, czy sztuczna inteligencja może być bardziej skuteczna niż człowiek. Temat podjął dr hab. Borysowski: – Znane mi są z ostatnich lat dwa systematyczne przeglądy badań, które były poświęcone temu zagadnieniu i dotyczyły radiologii. Wynika z nich, że skuteczność jest porównywalna. Istnieje jednak jeden poważny problem, który został podniesiony w obu tych systematycznych przeglądach. Są to ograniczenia metodologiczne bardzo wielu prac, np. ich retrospektywny charakter, mała liczba klinicystów używanych dla porównań itd.
Kwestie etyczne
Do dyskusji panelistów włączył się prof. Marek Krawczyk z Kliniki Chirurgii Ogólnej, Transplantacyjnej i Wątroby, dziekan Wydziału Medycznego PAN.
– W chirurgii mamy ogromny postęp – mówił prof. Krawczyk. – i to jest nie tylko rozpoznawanie, ale również leczenie operacyjne. Nie myślę tu o robotach, przy których siedzi człowiek i operuje. Mam na myśli sytuację, w której robot na podstawie rozpoznania wykonuje operację. Ten robot prawdopodobnie bardzo dobrze zdiagnozuje pacjenta i wykona operację. Jest jednak jedno „ale”. Co robić gdy pojawi się problem albo powikłanie? Kto ma to naprawić? Czy pojawi się kolejny robot? I gdzie jest etyka? Kto odpowiada wobec tego pacjenta?
Na problemy etyczne, dokładnie na problem świadomej zgody zwrócił uwagę dr hab. Borysowski:
– Uzyskanie jej jest podstawowym wymogiem, zarówno prawnym jak i etycznym, koniecznym przy zastosowaniu jakiejś interwencji terapeutycznej. Czy lekarz ma obowiązek udzielić choremu informacji o tym, że będzie zastosowana sztuczna inteligencja? W jakim zakresie powinien poinformować? Niektóre systemy są bardzo skomplikowane. Trudno udzielić świadomej zgody na coś, co nie jest dla pacjenta do końca zrozumiałe.
Eksperci odpowiadali również na pytania. Jedno z nich dotyczyło tego, czy nie należy jednak ograniczyć korzystania ze sztucznej inteligencji w medycynie. Paneliści zgodnie stwierdzili, ze rozwoju A.I. nie da się powstrzymać, trzeba jednak nauczyć się wykorzystywać ją w taki sposób, aby było to bezpieczne.
– Nauka dzisiaj powinna być pokorna, interdyscyplinarna i odważna. Świat wymaga pokornego podejścia, bo wszystkiego nie wiemy. A z drugiej strony trzeba mieć odwagę, żeby zmierzyć się z tym, co przed nami zakryte. Ani teologia, ani medycyna, ani teologia ani inżyniera sama sobie ze światem nie poradzi. Wszyscy musimy ze sobą współpracować – zakończył konferencję ks. prof. Krzysztof Pawlina.