Światowa Organizacja Zdrowia (WHO) opublikowała nowe wytyczne dotyczące etyki i zarządzania dużymi modelami multimodalnymi (LMM) – rodzajem szybko rozwijającej się technologii sztucznej inteligencji generatywnej (AI) mającej zastosowanie w ochronie zdrowia.
Zawierają one ponad 40 zaleceń dla firm technologicznych i podmiotów oferujących usługi w zakresie opieki zdrowotnej.
-Technologie generatywnej sztucznej inteligencji mogą wpływać na poprawę opieki zdrowotnej, ale tylko pod warunkiem, że osoby opracowujące i wykorzystujące te technologie zidentyfikują powiązane ryzyko i w pełni je uwzględnią – powiedział dr Jeremy Farrar, główny naukowiec WHO. – Potrzebujemy przejrzystych informacji i zasad, aby zarządzać projektowaniem, rozwojem i wykorzystaniem LMM, aby osiągnąć lepsze wyniki w zakresie zdrowia i przezwyciężyć utrzymujące się nierówności w tym obszarze.
Wytyczne WHO dotyczą zastosowania LMM:
– w zakresie diagnozy i opieki klinicznej, na przykład przy odpowiadaniu na pisemne zapytania pacjentów
– pod kontrolą pacjentów, w celu badania objawów i leczenia
– w realizowania zadań biurowo-administracyjnych, takie jak dokumentowanie wizyt pacjentów w ramach elektronicznej dokumentacji medycznej
-w edukacji medycznej i pielęgniarskiej, w zapewnianiu stażystom symulowanych spotkań z pacjentami
– w badaniach naukowych i badaniach nad lekami, w tym w celu identyfikacji nowych substancji.
WHO ostrzega, że przy wykorzystywaniu LMM do konkretnych celów związanych ze zdrowiem może istnieć ryzyko przekazywania fałszywych, niedokładnych, stronniczych lub niekompletnych informacji, które mogą zaszkodzić osobom wykorzystującym je przy podejmowaniu decyzji. LMM mogą się uczyć na podstawie niskiej jakości lub stronniczych danych, może to dotyczyć takich danych jak rasa, pochodzenie etniczne, pochodzenie, płeć, tożsamość płciowa czy wiek.
W wytycznych szczegółowo opisano zagrożenia dla systemów opieki zdrowotnej, takie jak dostępność i przystępność cenowa najskuteczniejszych LMM. LMMS może również sprzyjać „stronniczości związanej z automatyzacją” i powodować przeoczenie błędów LMM, podobnie jak inne formy sztucznej inteligencji, są również podatne na zagrożenia w zakresie cyberbezpieczeństwa.
Medidesk Członkiem Głównym Koalicji AI w Zdrowiu>>>
Aby stworzyć bezpieczne i skuteczne LMM, WHO podkreśla potrzebę zaangażowania różnych interesariuszy: rządów, firm technologicznych, świadczeniodawców, pacjentów i społeczeństwa obywatelskiego na wszystkich etapach rozwoju i wdrażania takich technologii, w tym ich nadzoru i regulacji.
Kluczowe zalecenia
Nowe wytyczne WHO zawierają zalecenia dla rządów, na których spoczywa główna odpowiedzialność za ustalanie standardów w zakresie opracowywania i wdrażania LMM, a także ich integracji i wykorzystania do celów zdrowia publicznego i medycyny.
1.Inwestowanie lub udostępnianie infrastruktury non-profit lub infrastruktury publicznej, w tym mocy obliczeniowej i publicznych zbiorów danych, dostępnych dla programistów w sektorze publicznym, prywatnym i non-profit, wymagające od użytkowników przestrzegania zasad i wartości etycznych w zamian za dostęp.
2.Korzystanie z przepisów, polityk i regulacji, w celu zapewnienia, że LMM i aplikacje stosowane w opiece zdrowotnej i medycynie, niezależnie od ryzyka lub korzyści związanych z technologią AI, spełniają wymogi etyczne i standardy praw człowieka, dotyczące na przykład godności, autonomii lub prywatności.
3.Wyznaczenie lub utworzenia agencji regulacyjnej, która będzie oceniać i zatwierdzać LMM i aplikacje przeznaczone do stosowania w opiece zdrowotnej lub medycynie – o ile pozwalają na to zasoby.
4.Wprowadzenie obowiązkowych audytów po wydaniu i ocen skutków, w tym w zakresie ochrony danych i praw człowieka, przeprowadzanych przez niezależne instytucje w przypadku wdrożenia LMM na dużą skalę. Audyty i oceny skutków powinny być publikowane i powinny obejmować wyniki i skutki zdezagregowane według typu użytkownika, w tym na przykład według wieku, rasy lub niepełnosprawności.
Poradnik zawiera także zalecenia dla twórców LMM. Zgodnie z nimi LMM powinny być projektowane nie tylko przez naukowców i inżynierów. Potencjalni użytkownicy oraz wszystkie bezpośrednie i pośrednie zainteresowane strony, w tym podmioty świadczące usługi medyczne, badacze naukowi, pracownicy służby zdrowia i pacjenci, powinni być zaangażowani od wczesnych etapów rozwoju sztucznej inteligencji w ustrukturyzowany, włączający i przejrzysty projekt. Należy zapewnić im zapewnić możliwość podnoszenia kwestii etycznych, wyrażania obaw i zapewnić dane wejściowe dla rozważanej aplikacji AI.
LMM powinny być projektowane tak, aby wykonywały dobrze zdefiniowane zadania z niezbędną dokładnością i niezawodnością w celu poprawienia wydajności systemów opieki zdrowotnej i działania dla dobra pacjentów.
Wytyczne WHO dostępne są tutaj>>>
Sztuczna inteligencja i modele LMM
Pojęcie „sztuczna inteligencja” (AI) odnosi się do algorytmów zintegrowanych z systemami i narzędziami do uczenia się na podstawie danych, dzięki czemu mogą wykonywać zautomatyzowane zadania bez wyraźnego programowania każdego kroku przez człowieka. Generatywna sztuczna inteligencja to kategoria technik sztucznej inteligencji, w ramach których algorytmy są szkolone na zbiorach danych, które można wykorzystać do generowania nowych treści, takich jak tekst, obrazy lub wideo. Wytyczne WHO dotyczą jednego typu generatywnej sztucznej inteligencji, dużych modeli multimodalnych (LMM), które mogą zawierać jeden lub więcej typów danych wejściowych i generować różnorodne wyniki, nieograniczone do rodzaju wprowadzonych danych. Przewiduje się, że LMM będą miały szerokie zastosowanie w opiece zdrowotnej, badaniach naukowych, zdrowiu publicznym i opracowywaniu nowych leków. LMM są również znane jako „modele podstawowe ogólnego przeznaczenia”.