Sztuczna inteligencja w medycynie. "Algorytmy AI diagnozują w sposób nieosiągalny dla człowieka"

Autor: Katarzyna Mieczkowska • Źródło: Rynek Zdrowia15 maja 2022 13:23

Jak technologia zmienia współczesną medycynę? Ligia Kornowska*, lekarz, dyrektor zarządzająca Polskiej Federacji Szpitali i propagatorka sztucznej inteligencji opowiada, w jakim miejscu jesteśmy, jeśli chodzi o jej wykorzystanie w zdrowiu i jak jest przyszłość stosowania AI w ochronie zdrowia.

Sztuczna inteligencja w medycynie. "Algorytmy AI diagnozują w sposób nieosiągalny dla człowieka"
Algorytmy sztucznej inteligencji już teraz diagnozują pacjentów w sposób nieosiągalny dla człowieka. Fot. Adobestock
  • Liczba algorytmów sztucznej inteligencji (AI) stosowanych w medycynie wzrosła dziesięciokrotnie od czasu pierwszych wdrożeń takich rozwiązań
  • Obecnie AI to już codzienność, nie tylko na świecie, ale również w polskich ośrodkach. Pomaga m.in. w diagnostyce raka piersi i guzów nerek
  • Jednak te rozwiązania są drogie, na ich wdrożenia brakuje pieniędzy, a nierzadko także odpowiednich uregulowań prawnych
  • W Polsce nadal często brakuje dostępu do danych medycznych, na których sztuczna inteligencja jest uczona - wskazuje Ligia Kornowska, liderka Koalicji AI w Zdrowiu

AI w medycynie obecna od lat

Jak przyznaje Ligia Kornowska, sztuczna inteligencja podbija rynek dopiero od 5-6 lat, jeśli mowa o certyfikowanych algorytmach sztucznej inteligencji w medycynie.

- 6 lub 7 lat temu tych algorytmów było około 30-40. Pod koniec 2020 roku było ich ponad 450, więc widzimy dziesięciokrotny wzrost liczby algorytmów medycznych na świecie w ciągu zaledwie pięciu lat - przyznaje dyrektor zarządzająca Polskiej Federacji Szpitali i liderka Koalicji AI w Zdrowiu. Dodaje, że ten trend jest kontynuowany.

- Spodziewamy się jeszcze więcej algorytmów sztucznej inteligencji; jeśli chodzi o obszary medyczne, najczęściej była to radiologia, natomiast już teraz radiologię doganiają: kardiologia, onkologia, a nawet psychiatria - zauważyła Ligia Kornowska podczas 13. Konferencji MEDmeetsTECH (Warszawa, 12 maja 2022 r.).

Sztuczna inteligencja w światowej medycynie funkcjonuje już od kilku lat. Od 2018 roku istnieje algorytm certyfikowany przez FDA, mogący samodzielnie diagnozować lub stanowić element diagnozy. Jest to algorytm do badania dna oka pod kątem występowania retinopatii cukrzycowej. Inny stosowany algorytm przeznaczony do oceny mammografii piersi zmniejsza liczbę wyników fałszywie ujemnych o ok. 9 procent. Oznacza to, jak mówi Kornowska, że potencjalnie dziesiątki tysięcy pacjentów można zdiagnozować o wiele szybciej pod kątem nowotworu, niż bez wykorzystania AI.

Ekspertka przytacza również ciekawostkę opublikowaną w czasopiśmie Lancet Digital Health: algorytm, który na podstawie badania EKG, czyli - jak podkreśla - "zupełnie nieinwazyjnego badania czynności serca" może wnioskować, że pacjent ma anemię, niedokrwistość. 

- To jest sytuacja, która nie ma w zasadzie miejsca w rzeczywistości, ponieważ żaden lekarz nie podejmie się diagnozowania niedokrwistości na podstawie EKG: do tego trzeba wykonać badania krwi. Tutaj mamy sytuację, w której algorytm już teraz diagnozuje w sposób nieosiągalny dla człowieka, oczywiście to są wczesne etapy, które wymagają dalszego sprawdzania - dodaje.

Innowacje nie ominęły również polskiej medycyny

Okazuje się, że polski pacjent, nawet niekoniecznie z dużego miasta, może trafić do szpitala, który korzysta z algorytmów sztucznej inteligencji. Pokazuje to raport „AI to nie sci-fi”, który opowiada o wdrożeniach innowacji w polskich szpitalach: wskazuje na placówki, które stosują konkretne rozwiązania, pokazuje również liczby, ilu pacjentów zostało objętych takim rozwiązaniem.

- Jeden z algorytmów wspomaga diagnozowanie preparatów laboratoryjnych. Wiemy, że jeśli chodzi o lekarzy patomorfologów, jest ich zdecydowanie za mało na rynku. Algorytm przychodzi z pomocą i może diagnozować - a w zasadzie już zdiagnozował, na przykładzie tego wdrożenia, dokładnie 811 plików histopatologicznych - informuje Ligia Kornowska.

Następny algorytm wspomaga tworzenie dokumentacji medycznej w taki sposób, aby była ona zrozumiała dla innych algorytmów, ale również ustandaryzowana. Dzięki rozwiązaniu opartemu częściowo na sztucznej inteligencji lekarz radiolog jest w stanie opisać 100 badań rezonansu magnetycznego kolana w ciągu jednego dnia. - Nowe technologie pozwalają na pewno dużo efektywniej korzystać z czasu pracy lekarza - przyznaje Ligia Kornowska.

Kolejne wspomniane przez szefową ekspertkę rozwiązanie wykorzystuje uczenie maszynowe do diagnostyki guzów nerek. Na podstawie tomografii komputerowej szacuje, czy guz jest łagodny, czy złośliwy. Pilotażowe wdrożenie tego algorytmu miało miejsce w 2020 roku w szpitalu św. Wojciecha w Gdańsku, ale włączono go również do diagnostyki w Szpitalach Pomorskich i szpitalu im. Floriana Ceynowy w Wejherowie. Rozwiązanie to w wielu przypadkach pozwala uniknąć niepotrzebnych operacji i poprawia jakość współpracy lekarza z pacjentem.

AI wyparła telemedycynę, ale wciąż ciężko przebić się do ogółu

Polska Federacja Szpitali od trzech lat tworzy raport „Top Disruptors in Healthcare 2022. W tym roku w raporcie uwzględniono około 150 startupów medycznych. Raport będzie publikowany w połowie czerwca, natomiast już teraz PFSz upubliczniła częściowe statystyki z tego raportu. Wynika z niego przede wszystkim, że już prawie połowa startupów zajmuje się sztuczną inteligencją.

- To ogromny wzrost w porównaniu na przykład z raportem sprzed dwóch lat, kiedy tylko jedna trzecia startupów zajmowała się sztuczną inteligencją: wtedy wygrywała telemedycyna, dzisiaj sztuczna inteligencja zdecydowanie jest na pierwszym miejscu - zaznacza Kornowska.

W jej ocenie największy problem startupów w kontekście rozwoju i promocji swoich rozwiązań leży właśnie w sprzedaży rozwiązania, czyli w momencie, kiedy firma ma już gotowy produkt i chce, żeby klient ostatecznie z niego korzystał. Wówczas startupy napotykają pewne problemy z wdrożeniem rozwiązania na rynku, co może wskazywać między innymi na brak stabilnego źródła finansowania, np. ze środków publicznych lub od szpitali w kontekście zapłaty za dane rozwiązania.

W Polsce, jak mówi dyrektor zarządzająca PFSz, dużo dzieje się w temacie AI. Niespełna dwa lata temu została wdrożona szerokosektorowa Polityka AI i już w tej chwili istnieją wytyczne dotyczące tego, co należy zrobić w celu dalszego rozwoju sztucznej inteligencji. Kornowska wymienia również Program Otwarte Dane, który wskazuje, jak ważny jest dostęp do danych na przykład dla rozwoju sztucznej inteligencji. Powołuje się również na podmioty publiczne, między innymi UODO czy KPRM, które organizują konferencje poświęcone sztucznej inteligencji czy ochronie danych osobowych.

Mimo rosnącej świadomości Polska nadal stoi w obliczu szeregu wyzwań związanych z AI. Najważniejszym wyzwaniem jest dostęp do danych. - Dostępu do danych medycznych brak, albo jest bardzo ograniczony - a wiemy, że sztuczna inteligencja opiera się absolutnie na danych, na których jest uczona - podkreśla Kornowska.

Kolejnym z wymienianych problemów jest otoczenie prawne, które nie precyzuje bardzo wielu kwestii związanych z wdrażaniem sztucznej inteligencji w zdrowiu, w tym kwestii odpowiedzialności za wynik. Istotny aspekt stanowi także edukacja społeczeństwa i personelu medycznego, a także zachęty finansowe: aby szpital czy podmiot leczniczy mógł wdrożyć rozwiązania oparte o sztuczną inteligencję, powinien być jakkolwiek zachęcony finansowo.

Biała Księga AI

Polska Federacja Szpitali i Koalicja AI w Zdrowiu starają się rozwiązać co najmniej jeden z tych problemów. W tym celu przez ostatnie trzy miesiące powstawała tzw. Biała Księga AI w praktyce klinicznej. Będzie zawierała  bardzo praktyczne wskazówki, jak wdrażać sztuczną inteligencję w polskiej ochronie zdrowia. W radzie naukowej Białej Księgi zasiadają m.in. przedstawiciele Ministerstwa Zdrowia, Rzecznika Praw Pacjenta i Naczelnej Izby Lekarskiej. Dokument najprawdopodobniej zostanie przetłumaczony na język angielski, tak, aby mógł być wykorzystany przez inne kraje. Konsultacje społeczne dotyczące Białej Księgi otwarte zostaną w poniedziałek 16 maja i potrwają do piątku 27 maja.

Autorom Białej Księgi towarzyszyły pewne dylematy, m. in. w kontekście informowania pacjenta. - Zastanawialiśmy się, czy powinniśmy za każdym razem informować pacjenta, jeśli korzystamy z algorytmu sztucznej inteligencji. Z jednej strony algorytm sztucznej inteligencji może pokazywać nam wynik, który jest bardzo ważny z punktu widzenia leczenia i diagnostyki pacjenta, więc pacjent powinien być poinformowany o tym, co taki algorytm o tym leczeniu i diagnostyce powiedział czy też zasugerował - mówi Ligia Kornowska.

- Z drugiej strony algorytm może być tylko jednym elementem całego procesu diagnostyczno-leczniczego u pacjenta i byłoby dużą trudnością organizacyjną informowanie pacjenta za każdym razem, kiedy wykorzystujemy algorytm sztucznej inteligencji, nie mówiąc już o tym, żeby pobierać na przykład od pacjenta zgodę na zastosowanie algorytmu sztucznej inteligencji - ocenia Kornowska.

I podaje przykład: - Pacjent trafia na SOR z podejrzeniem udaru niedokrwiennego, jego badanie tomografii komputerowej jest najpierw oceniane w tempie ekspresowym przez algorytm sztucznej inteligencji, który informuje radiologa od razu, że na przykład to badanie musi ocenić natychmiast, w pierwszej kolejności, bo jest ryzyko udaru niedokrwiennego. albo wręcz sugeruje opis tego badania jako udar niedokrwienny.

- W takiej sytuacji trudno byłoby poinformować pacjenta i uzyskać jego zgodę na samym początku, jeszcze przed skorzystaniem z algorytmu, bo korzystamy z niego po to, by przyspieszyć czas od diagnostyki do leczenia: mamy to złote okno lecznicze 4,5 godziny i to mogłoby być trudne - przyznaje Kornowska. 

Dodatkowo korzystanie z algorytmu jest tylko jednym z elementów diagnostyczno-leczniczych: lekarz również ocenia to badanie obrazowe, ocenia objawy pacjenta i opiekuje się w całości pacjentem. Zdaje się, że to jest ten przykład, kiedy to jest tylko jeden z elementów leczenia pacjenta, więc nie warto byłoby zagłębiać się tylko w jeden element – zauważa szefowa PFSz.

Wpisywać i informować – czy jednak nie?

Kolejną sporną kwestią pozostaje każdorazowe wpisywanie w dokumentację medyczną informacji o wykorzystaniu algorytmu sztucznej inteligencji. – Nierzadko takie algorytmy działają „w tle”, a lekarz może nie być świadomy tego, że gdzieś jest algorytm sztucznej inteligencji, który wspiera niekoniecznie pokazywanie opisu diagnostycznego, ale na przykład dobre ułożenie pacjenta przy badaniu - podnosi Kornowska.

Dodaje, że problematyczne może być samo umieszczenie diagnozy uzyskanej przez AI w dokumentacji medycznej. - Czy sztuczna inteligencja zastąpi lekarza? Przepisy mówią, że udzielać świadczeń zdrowotnych czy też orzekać o stanie zdrowia może lekarz, podmiot medyczny może udzielać świadczeń zdrowotnych, natomiast nie ma informacji, że o stanie zdrowia może informować sztuczna inteligencja - zauważa reprezentantka PFSz.

Co w sytuacji, kiedy diagnoza AI jest inna niż ta, którą wystawia lekarz w pełni przekonany o słuszności rozpoznania? - Zastanawialiśmy się, czy pacjent powinien być poinformowany o tym, że algorytm myśli coś innego niż lekarz. Rozróżnijmy tutaj dwa przypadki: jeden, w którym lekarz podejrzewa, że wynik dostarczony przez algorytm jest błędny, gdyż błędnie było wykonane badanie, czyli wprowadzone zostały złe dane, czy dane były podane algorytmowi w zły sposób i na błędną diagnozę wpłynął techniczny błąd - rozważa Kornowska.

– Czasami przy pobieraniu krwi pacjentowi możemy otrzymać wynik, który teoretycznie wskazywałby, że pacjent nie żyje, a pacjent ma się dobrze – przytacza lek. Kornowska. – To najczęściej wskazuje na błąd pobrania krwi, natomiast w sytuacji, kiedy jesteśmy pewni, że algorytm był prawidłowo zastosowany, a wynik jest bardzo istotny z punktu widzenia procesu diagnostyczno-leczniczego, lekarz powinien poinformować pacjenta o takim fakcie – zaznacza.

Odpowiedzialność za wynik algorytmu medycznego

Kolejną istotną kwestią, na którą wskazuje Ligia Kornowska jest odpowiedzialność lekarza za wynik: ostatecznie to lekarz stawia diagnozę i, nawet jeśli algorytm coś podpowie, to lekarz podejmuje decyzję i lekarz bierze odpowiedzialność za ten wynik.

Kornowska przytacza więc jedno z badań, w przebiegu którego grupie lekarzy radiologów pokazano badanie RTG klatki piersiowej i pokazano wynik rzekomo pochodzący od sztucznej inteligencji. Jednak ten wynik pochodził po prostu od innego lekarza: jednej grupie pokazano wynik prawidłowy, a drugiej - zawierający nieprawidłowości. Uczestników poinformowano w każdym przypadku, że wynik pochodzi od sztucznej inteligencji.

Wyniki badań były nad wyraz ciekawe. Okazało się, że lekarze negatywnie nastawieni względem wykorzystania sztucznej inteligencji, ujrzawszy nieprawidłowy wynik, który miała zasugerować AI, byli bardziej skłonni do wystawiania mniej trafionych diagnoz, nawet jeśli sami inaczej zdiagnozowali pacjenta. Sugerowanie się wynikami z AI zdecydowanie zmniejszało skuteczność lekarzy w ocenie badań diagnostycznych.

* Wszystkie wypowiedzi zostały zanotowane podczas 13. Konferencji MEDmeetsTECH (Warszawa, 12 maja 2022 r.).

Dowiedz się więcej na temat:
Podaj imię Wpisz komentarz
Dodając komentarz, oświadczasz, że akceptujesz regulamin forum