Reklama

Technologie

#CyberMagazyn: AI w medycynie. Co nas czeka?

Sztuczna inteligencja będzie odgrywać coraz większą rolę w medycynie
Sztuczna inteligencja będzie odgrywać coraz większą rolę w medycynie
Autor. National Cancer Institute / Unsplash

Sztuczna inteligencja to technologia, która zmienia wiele dziedzin naszego życia. Jedną z nich jest ochrona zdrowia. Jak wyglądają zastosowania AI w medycynie i co nas czeka w najbliższej przyszłości?

Reklama

Sztuczna inteligencja to technologia, która aktualnie aktywnie wpływa na wiele dziedzin naszego życia. Jedną z nich jest medycyna. W przyszłości wpływ ten będzie z pewnością rósł - bo branża medyczna to część gospodarki, nie mniej ważna, niż przemysł czy usługi. Sztuczna inteligencja tworzy jednak zarówno szanse, jak i ryzyko - dlatego warto przyjrzeć się, w jaki sposób mogą kształtować się jej zastosowania oraz wpływ na społeczeństwo - bo medycyna to również newralgiczna dziedzina pod tym względem.

Reklama

AI w ochronie zdrowia i medycynie

Reklama

Obecnie, jak czytamy w technicznym raporcie dotyczącym zastosowań AI w medycynie i ochronie zdrowia, który powstał dla potrzeb polityki unijnej, wyróżnia się główne obszary, na których stosowana jest sztuczna inteligencja. Są to:

  • narzędzia AI dla zdrowia psychicznego;
  • sztuczna inteligencja wykorzystywana w inżynierii genetycznej;
  • sztuczna inteligencja w epidemiologii i monitoringu danych o zdrowiu populacyjnym
  • AI dla neurotechnologii;
  • AI w zastosowaniach wspomagających włączanie neuroróżnorodności.

Oczywiście, najwięcej mówi się o zastosowaniach sztucznej inteligencji w badaniach z dziedziny farmacji i chemii - i tu również będziemy mieć do czynienia z bardzo znaczącym wpływem AI na społeczeństwo, podobnie jak w przypadku medycyny spersonalizowanej.

Czytaj też

Wpływ na społeczeństwo

Z perspektywy Komisji Europejskiej, miarą do oceny użyteczności społecznej i wpływu na społeczeństwo technologii AI w medycynie, jest jej przyczynianie się do wypełniania celów zrównoważonego rozwoju zdefiniowanych przez ONZ w 2015 r. Pierwszym z nich jest walka z ubóstwem, do najważniejszych należy też eliminacja głodu, a także zapewnienie na poziomie całej populacji dostępu do ochrony zdrowia, edukacji i równości płci.

Jedną z najważniejszych kwestii dla KE jest także etyka - przy każdym zastosowaniu AI w medycynie i ochronie zdrowia, musi być brana pod uwagę. Do kwestii etycznych zaliczane są m.in. prywatność danych, odpowiedzialność prawna za błędy sztucznej inteligencji, a takżę inne aspekty relacji AI z człowiekiem, w szczególności, gdy mówimy o systemach autonomicznych. Etyka to również to, w jaki sposób AI będzie przekształcała relacje lekarzy z pacjentami, a także wpływała na jakość świadczonych usług medycznych, czy przyczyni się do przemian na rynku pracy w sektorze - na przykład do redukcji etatów, stworzenia nowych zawodów, zmian w określonych specjalizacjach, czy też ich całkowitej likwidacji.

Wśród aspektów etycznych zwrócono również uwagę na kwestię zależności od nadzoru człowieka, transparentności procesów przetwarzania danych, przejrzystości procesów podejmowania decyzji w szczególności, gdy część z nich będzie podejmowana autonomicznie, a także możliwości wpływania na systemy - tak, by w wyniku ataku np. zwracały wadliwe rezultaty.

Nieuniknione konsekwencje

Komisja Europejska ocenia, że AI obecnie rozwija się tak szybko, że wpływa właściwie na każdą dziedzinę medycyny. Dodatkowo, mamy do czynienia z rosnącym wpływem „bioekonomii” na rzeczywistość. Co to takiego? To gospodarka oparta na danych medycznych, a także na ich analizach - coraz chętniej w sektor ten wchodzą firmy z pogranicza medycyny i technologii, jak i Big Techy.

W przyszłości problematyczne z punktu widzenia społecznego mogą być kwestie zaufania do technologii, w tym - gotowość społeczeństwa do zaakceptowania ich rosnącej roli w medycynie oraz poczucie zdrady wynikające z „dehumanizacji” medycyny jako takiej. Kłopotem jest też takie trenowanie sztucznej inteligencji, by mieć gwarancję, że nie będzie ona obarczona błędami poznawczymi - a także przejrzystość tych wszystkich procesów, łącznie z faktem, że w procesach decyzyjnych mogą istnieć algorytmy, których nie da się prosto zanalizować i wytłumaczyć, a w przyszłości może to być w ogóle niewykonalne.

Czytaj też

Broń (obosieczna) biologiczna

Komisja wskazuje, że już teraz mamy do czynienia ze zjawiskami takimi, jak coraz większy udział robotów np. w chirurgii, które okazały się dobrym wsparciem dla „ludzkich” specjalistów, jednak mimo wszystko budzą strach jako jedyne „podmioty” mające brać odpowiedzialność za przeprowadzenie operacji.

Z sukcesem rozwija się również wykorzystanie AI na polu farmacji, co po raz pierwszy na tak dużą skalę sprawdziło się w kontekście pandemii koronawirusa, gdy z wykorzystaniem modeli sprawdzano możliwe wzajemne interakcje różnych substancji chemicznych podczas prac nad szczepionkami. W niektórych wypadkach, co podkreślono w raporcie, czas potrzebny na stworzenie prototypowych preparatów skrócił się nawet 30-krotnie - z miesiąca do jednego dnia.

W tym wypadku istnieje jednak bardzo łatwa możliwość odwrócenia medalu w drugą, niekorzystną dla społeczeństwa stronę - szybkość pracy nad nowymi substancjami chemicznymi oznacza, że bez prawidłowego nadzoru, algorytmy mogą posłużyć jako metoda pozyskiwania broni biologicznej i opracowywania szkodliwych dla człowieka substancji, które później na dużą skalę mogą być wykorzystywane jako narzędzie walki.

Czy to naprawdę działa?

Kwestią, która ważna jest w kontekście rozwoju sztucznej inteligencji dla zastosowań w medycynie jest jej skuteczność, gdy stosowana jest w narzędziach - np. do diagnostyki. W przypadku pandemii COVID-19, jak zwraca uwagę KE, skuteczność ta nie okazała się na tyle wysoka, by mogła być stosowana klinicznie.

Z analiz, którymi dysponują urzędnicy wynika, że narzędzia, które powstały z wykorzystaniem algorytmów do walki z zagrożeniem, okazały się bezużyteczne - a niektóre z nich, szczególnie z diagnostyki predyktywnej, mogły być nawet szkodliwe dla społeczeństwa. Wszystkiemu winne mogą być dane, które w wypadku pandemii nie podlegały właściwej selekcji ani reżimowi standardów. To lekcja, która mówi szczególnie wyraźnie, jak ważne są czyste zbiory danych szkoleniowych i nieustanny nadzór ekspercki nad informacjami wykorzystywanymi w AI w medycynie.

Społeczeństwo, jeśli ma zaakceptować rosnącą rolę algorytmów w ochronie zdrowia i medycynie, musi im zaufać - a tego nie osiągniemy bez dobrej jakości produktów technologicznych, jak i nadzoru nad ich działaniem, który jest nieodzowną częścią wdrażania AI w obszarach wrażliwych - a do takich należy medycyna, jak i ochrona zdrowia. Nie jest tu rozwiązaniem hurraoptymizm, ani szybka cyfryzacja usług - początkiem powinno być budowanie zaufania i przekonania o bezpieczeństwie wśród obywateli. Ostatecznie, każdy z nich jest też pacjentem.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Komentarze

    Reklama