Jacek Wykowski/Rynek Zdrowia | 10-11-2018 07:44

Postęp w medycynie a polskie realia. Wykorzystamy potencjał cyfrowych technologii?

Pomiędzy zaawansowanymi technologiami w medycynie a możliwością ich wdrażania w obecnych realiach naszego systemu ochrony zdrowia jest olbrzymi dysonans. Osiągnięcia wynikające m.in. z dynamicznych przemian cyfrowych, zderzają się z tak banalnymi problemami, jak brak systemu monitorowania kolejek czy wymiany informacji między lekarzami w zakresie diagnozy czy przyjmowanych leków.

FOT. Arch. RZ; zdjęcie ilustracyjne

O najnowszych osiągnięciach i obiecujących „praktycznych” perspektywach takich obszarów jak: sztuczna inteligencja w diagnostyce medycznej, telemedycynie, biosensory, nowoczesne obrazowanie czy interfejsy mózg-komputer, eksperci debatowali pod koniec października br. podczas warszawskiej konferencji zorganizowanej przez Uczelnię Łazarskiego pn. "nMedycyna 2018+”. Jak podkreślali organizatorzy, celem pierwszej debaty (ma być ich więcej) było nakreślenie stanu wiedzy medycznej i zaawansowania technik medycznych w obszarze technologii przemysłu 4.0. To się udało, ale...

Zacznijmy od zmiany zarządzania
Podczas sześciogodzinnej, eksperckiej dyskusji, wymieniane pojęcia, nazwy urządzeń i technologii (często dla osób spoza danej dziedziny tak samo obiecujące, jak i niezrozumiałe), zderzały się ze smutną rzeczywistością polskiego systemu ochrony zdrowia. A ten nadal boryka się chociażby z problemem zapisywania się pacjentów do kilku kolejek czy z brakiem przepływu informacji pomiędzy specjalistami.  Nowe technologie wciąż wzbudzają u nas nieufność, a w krótkiej perspektywie, w skali jednego szpitala są one bardzo często nieopłacalne.

O barierach w kontekście zarządzania mówił podczas dyskusji m.in. dr Artur Prusarczyk, wiceszef Centrum Medyczno-Diagnostycznego w Siedlcach. - Inne kraje, takie jak Kanada, Holandia czy Dania, musiały wytworzyć nowe grupy liderów w zarządzaniu. W Polsce zarządzanie POZ przez kogoś, kto jest z wykształcenia „tylko” lekarzem, prawie zawsze kończy się ujemnym wynikiem finansowym - mówił.

Zaznaczał, że sam „wynik merytoryczny” w rozumieniu lekarza nie wystarczy, by pacjenci byli zadowoleni z leczenia i by tworzyć sprzyjające warunki do wdrażania nowoczesnych technologii. - W przyszłości POZ będą zarządzały kadry z wykształceniem hybrydowym - muszą mieć wiedzę nie tylko z zakresu służby zdrowia, ale też stricte z zarządzania, organizacji, ekonomii, prawa - podkreślał.

Prof. Jarosław Sławek, prezes Polskiego Towarzystwa Neurologicznego, zaznaczał, że „system ryczałtowy w zasadzie nie uwzględnia postępu”. - Nowoczesne technologie powinny być implementowane w szerszej skali niż jeden szpital. Tylko wtedy mają szansę, by przynieść oszczędności. W skali pojedynczej lecznicy będą z reguły zbyt kosztochłonne - zauważał.

Postęp blokują banalne bariery
Dr Małgorzata Gałązka-Sobotka, dyrektor Instytutu Zarządzania w Ochronie Zdrowia Uczelni Łazarskiego podkreślała, że realne czerpanie przez polskich lekarzy i pacjentów korzyści z postępu wymaga zarówno zmiany mentalnej, jak i szeregu zmian systemowych, które będą zachęcały do szukania wartości zdrowotnej w oparciu o nowe technologie. Ale nie tylko.

- Nie możemy zapomnieć o ograniczeniach budżetowych. Wiele z tych technologii ma niesamowity potencjał, ale jak się patrzy na to, ile kosztują, to musimy być wobec nich bezwzględnie krytyczni - przestrzegała. Tłumaczyła, że w kontekście nowych technologii w medycynie trzeba znaleźć równowagę pomiędzy „emocjami czy wręcz euforią, a kosztem ich nabycia”.

Prof. Sławek podkreślał, że pierwszym krokiem w polskich realiach powinno być stworzenie na tyle sprawnego systemu elektronicznego, by monitorował to, co się dzieje z pacjentem - „po to, żeby się nie zapisał do pięciu specjalistów albo nie wykupował leków na zapas na dwa lata”.

- Obecna medycyna spersonalizowana jest podzielona na moduły. Ale lekarze nie interesują się tym, co mają do powiedzenia inni specjaliści. Nie ma na to czasu, nie ma zwyczaju robienia konsyliów. Dzisiaj to technologia powinna to konsylium zastąpić; powinna pokazać, jak lekarz interpretuje dany przypadek i dlaczego zastosował taki a nie inny lek czy sposób leczenia. Wtedy będzie można się do tego odnieść bez konieczności spotykania się, które jest czasochłonne i coraz rzadziej możliwe - tłumaczył profesor.

Z dyskusji wynika jedna - mało pozytywna - konstatacja. Na razie polski system nie motywuje, by ściągać do szpitali nowinki technologiczne, nawet te o udowodnionej skuteczności.

Ilość danych przestaje być już problemem
Drugim głównym wątkiem debaty była część "techniczna", w której eksperci prezentowali zarówno możliwości nowych technologii, jak i ich realne zastosowanie. Niezwykle istotną, o ile nie najważniejszą rolę w zmianach, będzie odgrywał sposób interpretacji coraz większych zbiorów danych. 

O procesie zwanym deep learning, w którym komputer uczy się wykonywania zadań naturalnych dla ludzkiego mózgu, takich jak identyfikowanie obrazów czy nawet stawianie diagnoz, mówił dr Piotr Zwoliński, szef Instytutu Neuronauki i Medycyny Cybernetycznej Wydziału Medycznego Uczelni Łazarskiego. To właśnie technologia deep learning znacznie zwiększyła zdolność komputerów do „rozumienia” zbiorów danych.

- Obecnie właściwy deep learning opiera się na napełnianiu systemów danymi klinicznymi w czasie rzeczywistym. Nie określamy, ile tych danych posiadamy, tylko zakładamy, że jest ich prawie nieskończenie wiele. Jeszcze dekadę temu analiza tak olbrzymich zbiorów była niemożliwa - maszyny były za wolne, pojemności zbyt małe. Obecnie możemy w czasie rzeczywistym, w ciągu sekund, przeszukiwać tak wielkie obszary, by móc porównać pojedynczego pacjenta do całej światowej bazy wiedzy - mówił dr Zwoliński.

O interpretacji danych mówił także - w kontekście przyszłości metod obrazowania - prof. Leszek Królicki, szef Zakładu Medycyny Nuklearnej Samodzielnego Publicznego Centralnego Szpitala Klinicznego w Warszawie.

- W epoce medycyny precyzyjnej nie powinno być pacjentów, którzy nie osiągną jakiegoś zysku z leczenia. By tak się stało, trzeba uzyskać bardzo dużo danych za pomocą różnych metod i narzędzi. Wśród nich pojawiła się nowa nazwa, radiogenomika, czyli metody obrazowe, które pozwalają przede wszystkim na lepsze zrozumienie choroby i jej stopnia zaawansowania oraz ustalenie właściwego leczenia. Jednak nie chodzi o to, aby w tak dużej ilości danych znaleźć dużo szczegółów, ale żeby znaleźć te, które są naprawdę istotne - wyjaśniał.

Zaznaczył, że przyszłość metod obrazowych będzie polegała na znalezieniu odpowiednich znaczników. - W tym kontekście mówimy o obrazowaniu molekularnym. Możemy w nim rozwijać zarówno aparaturę, jak i same markery - podsumował prof. Królicki.

Medyczne techniki pomiarowe trafiają też pod strzechy
Ppłk dr Mariusz Chmielewski z Instytutu Systemów Informatycznych Wojskowej Akademii Technicznej zwrócił uwagę, że coraz więcej technik pomiarowych wykorzystywanych przez lekarzy trafia do codziennego użytku. Jak jednak zaznaczył, nigdy urządzenia dostępne komercyjnie, np. „noszone na sobie”, nie będą osiągały takiej dokładności, jak urządzenia medyczne. Z kilku powodów.

- One nie muszą takiej dokładności uzyskiwać; poza tym chcemy mieć urządzenie do tysiąca złotych, a nie za 15 tysięcy. W tym przypadku ważniejszy jest też pomiar mobilny - urządzenie musi działać ciągle - wyjaśniał. 

Specjalista, analizując najważniejsze dane techniczne, które powinny spełniać biosensory medyczne (tzw. klasy sensorów), zwrócił uwagę na glukometry.

- Sensor musi mierzyć tak samo dokładnie zarówno niskie poziomy stężenia danego zjawiska czy substancji, jak i wysokie. Glukometry uważamy za urządzenia pomiarowe, ale nimi nie są. Mają błędy pomiaru cukru we krwi na poziomie 18 proc. Ten błąd wzrasta nawet do 30 proc. przy niskim poziomie zacukrzenia - więc im niższy poziom cukru, czyli sytuacja ewidentnie zagrażająca życiu, tym pomiar jest coraz gorszy - zaznaczał.

Jeszcze na inną przeszkodę zwrócił uwagę prof. Sławek. - Technologia jest fantastyczna, ale ma jedną wadę - jest odhumanizowana. 40 proc. ludzi starszych po 85. roku życia ma już zaburzenia poznawcze. To bariera obsługi różnych urządzeń, nawet zwykłego telefonu. Urządzenia powinny być tak konstruowane, by mogły zbierać dane niezależnie od interakcji użytkownika - podsumował.

Udział człowieka nadal bardzo istotny
Prof. Piotr Durka z Instytutu Fizyki Doświadczalnej UW, mówiąc o realnych zastosowaniach interfejsów mózg-komputer, podkreślał, że ich skuteczność determinują w znacznej mierze działające mięśnie.

- Komunikacja przebiega w 100 proc. przez mięśnie. Jak przestają działać, to znika jakakolwiek możliwość porozumienia się ze światem zewnętrznym. Większość technologii asystujących dla pacjentów z zaburzeniami komunikacji opiera się na jakimś działającym mięśniu - może on odpowiadać za dmuchanie, mruganie, ruch gałki ocznej czy jakiejkolwiek kończyny - zaznaczał.

Z kolei Michał Kwieciński, menedżer z PwC Polska, opowiadając o zastosowaniu sztucznej inteligencji w medycynie na przykładzie rozpoznawania zapalenia płuc na zdjęciach RTG, zwracał uwagę, że jej rolą nie jest zastępowanie radiologa, a pomaganie mu.

- Sztuczna inteligencja ma pomóc radiologowi określić, w którym obszarze zdjęcia powinien poszukiwać choroby. W przyszłości właśnie taka współpraca może mieć największą wartość - podsumował.