Magdalena Melke: W jaki sposób obecnie wyglądają standardy przeprowadzania badań klinicznych nad nowymi lekami w Polsce i UE? Gdzie obserwuje się największe problemy?
dr Jarosław Greser, adwokat, doktor nauk prawnych i adiunkt na Politechnice Warszawskiej, specjalizujący się w prawie nowych technologii, w szczególności regulacji technologii medycznych, Internetu rzeczy oraz cyberbezpieczeństwa: Kwestie dotyczące badań klinicznych są co do zasady regulowane przez prawo Unii Europejskiej. Oczywiście posiadamy również polskie akty prawne, jednak one pełnią raczej funkcję uzupełniającą wobec aktów UE.
Istnieją dwa obszary, które są regulowane w ten sposób. Pierwszy dotyczy wyrobów medycznych, reguluje je rozporządzenie MDR oraz IVDR, dotyczące wszystkich zagadnień związanych z wyrobami medycznymi, w tym ich testowania w formie badań klinicznych. Drugi obszar dotyczy samych badań klinicznych i skupia się na lekach. W prawie unijnym te dwa obszary są bardzo mocno rozdzielone, co porządkuje kwestie prawne dla producentów. Chciałbym zaznaczyć, że obszar badań klinicznych jest silnie regulowany i to od wielu lat. Mówimy nie tylko o kwestiach dotyczących ochrony konsumentów, lecz również o barierach związanych z wprowadzeniem produktów na rynek unijny – dzięki dokładnym regulacjom unika się wprowadzania barier przez państwa członkowskie i protekcjonizmu.
Jak podaje Forbes, w ostatnich latach 80 procent badań klinicznych nie osiągnęło wyznaczonych celów związanych z rejestracją na czas, a średnio 30 procent pacjentów rezygnuje z udziału w badaniach klinicznych po rozpoczęciu badań. Część ekspertów argumentuje, że AI może w tym pomóc. Czy to jedyny obszar, w którym można wykorzystać AI do badań klinicznych?
Sformułowanie „sztuczna inteligencja” często obecnie jest takim słowem-wytrychem, które które może oznaczać bardzo różne rozwiązania zarówno od strony technicznej, jak i przewidywanego zastosowania. Jeśli chcemy sprecyzować naszą wypowiedź, należy zastanowić się, do którego etapu wprowadzania leku czy wyrobu medycznego się odnosimy. Jeżeli chodzi o leki, to np. algorytmy AI – zwłaszcza te, które szukają korelacji – mogą być bardzo użyteczne w znajdowaniu cząsteczek, które potencjalnie mogą mieć zastosowanie jako leki i odpowiednim selekcjonowaniu bazy badawczej.
Ogranicza to znacząco czas i koszty, dzięki czemu badania również są przyspieszone. Szczególnie korzystne jest to dla osób chorujących na choroby rzadkie i „osierocone”. Choroby osierocone mogą być „liczniejsze” pod względem ilości przypadków niż choroby rzadkie, jednak i tak nie przemysł farmaceutyczny nie pracuje intensywnie nad wynalezieniem na nie leków.
W kontekście AI warto przyjrzeć się również etapom produkcji leków. Jednym z nich jest post-market surveillance, czyli etap nadzoru nad tym, co się dzieje po wprowadzeniu leku bądź urządzenia medycznego na rynek. Zdecydowanie jest to bardzo obiecujący obszar pod względem zbierania i analizowania danych od pacjentów Może on polegać na przykład na zbieraniu informacji udostępnianych w mediach społecznościowych z mediów społecznościowych. Pomijając aspekt etyczny tej praktyki, za pomocą AI moglibyśmy obserwować osoby biorące określony antydepresant i przy użyciu odpowiednich narzędzi sprawdzić, w jaki sposób reagują na ten lek – naturalnie biorąc pod uwagę, że są aktywnymi użytkownikami mediów społecznościowych.
Wśród argumentów popierających wykorzystanie AI do badań klinicznych pojawia się kwestia minimalizacji stronniczości w dobieraniu próby. Dodatkowo, miałoby to zmniejszyć liczbę uczestników i przyspieszyć cały proces badawczy. Równocześnie, pojawiają się obawy dotyczące otrzymania błędnej odpowiedzi na to, czy lek działa. Jakie mogą być główne zagrożenia w wykorzystaniu AI w badaniach klinicznych?
Jest to bardzo kontrowersyjna kwestia. Punktem wyjścia jest to, że algorytm jest tak dobry, jak dobra jest baza danych, na której był on trenowany. Z kolei baza danych jest tak dobra, jak dobór danych, które są w tej bazie. Ponownie wracamy do kwestii, czy jesteśmy w stanie stworzyć tak dobrą bazę danych, która będzie odpowiednio reprezentatywna.
Wiemy, że jest to bardzo trudne, a w wielu wypadkach wręcz niemożliwe Mowa tutaj nie tylko o chorobach, które dotyczą dużej ilości populacji, lecz również w chorobach rzadszych. Istnieje również niedostateczna reprezentacja określonych grup w przeprowadzanych badaniach, niestety nie jest to problem nowy. Chodzi mi tutaj nie tylko o mniejszości (których, w krajach takich np. jak Polska, po prostu nie ma w populacji zbyt wiele), lecz również o dzieci czy kobiety w ciąży. Rodzice najczęściej nie chcą, aby ich potomstwo brało udział w badaniach klinicznych – zwłaszcza w sytuacji, gdy musimy mieć grupę kontrolną i rodzic nie chce, aby jego dziecko dostawało placebo zamiast właściwego leku.
Podobna sytuacja występuje przy okazji chorób psychicznych i problemu świadomej zgody pacjenta. Przy tego typu schorzeniach znaczenie ma również zmiana stanu psychicznego danej osoby, przez co może ona na pewnym etapie wypaść z procesu badań – właśnie wtedy baza danych jest niepełna.
Bazy danych pozostają największym problem w zakresie wykorzystania AI w obszarze badań klinicznych?
Nie uważam, aby „magicznym” rozwiązaniem tego problemu było wprowadzenie algorytmu opartego o którekolwiek narzędzie sztucznej inteligencji. Głównym problemem jest pytanie, na jakiej bazie danych zostanie wytrenowany algorytm.
Czy widziałby Pan możliwość zgromadzenia większej ilości danych i jak taki proces miałby wyglądać?
Obserwujemy ciekawe zjawisko dotyczące tzw. danych syntetycznych. Wykorzystujemy pewną bazę danych, szukamy korelatów statystycznych i w oparciu o nie odzwierciedlamy je w innej bazie danych, na której trenujemy algorytmy AI. Ułatwia to przeprowadzanie badań o tyle, że nowa baza może mieć dowolną wielkość, ponieważ odzwierciedlamy jej statystyczne właściwości. Taki mechanizm przydaje się nie tylko w przypadku chorób rzadkich, lecz również w przypadku grup niedoreprezentowanych, np. przy analizie badań przeprowadzanych na kobietach w ciąży (które również należą do grupy niedoreprezentowanej). Ciąża jest stanem dość krótkotrwałym i dynamicznym, dlatego wyłapywanie tych korelacji statystycznych przy ciąży jest bardzo trudne, jeśli mówimy o badaniu, które jest prowadzone w warunkach pozaszpitalnych.
Wracając do AI, przede wszystkim obserwujemy dwie kwestie sporne. Pierwszą z nich jest aspekt prywatności nowych baz danych – okazuje się, że nie jest to po prostu pełne statystyczne odzwierciedlenie realnej sytuacji i danych osobowych. Z kolei w przypadku danych osobowych pojawiają się aspekty natury etycznej i prawnej.
Jak wygląda środowisko regulacyjne Unii Europejskiej dotyczące wykorzystania AI w badaniach klinicznych – również w kontekście omawianego AI Act?
Pamiętajmy, że AI Act nie został jeszcze wprowadzony, cały czas trwają trilogi nad ustawą [przyp.red. nieformalne, tajne spotkania między kilkunastoma reprezentantami Parlamentu, Rady i Komisji, na których wypracowywane są porozumienia w sprawie aktów prawnych]. Kwestie związane z wyrobami medycznymi, lekami czy badaniami klinicznymi, są bardzo silnie regulowane w ramach Unii Europejskiej. Nie ma tam miejsca na przypadek, a branża jest przyzwyczajona do takiego krajobrazu prawnego. Amerykańskie podejście jest inne, ponieważ opierają się na działaniu FDA i jeśli chodzi o nowe technologie, Waszyngton jest bardziej elastyczny (w porównaniu z UE), co daje większe pole do eksperymentów. W przypadku UE, dopóki nie mieliśmy nowych technologii albo ich stosowanie było ograniczone, wszyscy uczestnicy rynku i środowiska prawnego wiedzieli – mówiąc kolokwialnie – na jakim gruncie się poruszają.
Nagle pojawiły się nowe regulacje. Pierwszą z nich było m.in. RODO, które również dotyczy badań klinicznych, jednak nie poprzestano na nich. Pozostałe pojawiające się regulacje być może nie dotyczą bezpośrednio badań klinicznych, jednak mają na nie wpływ, regulowane m.in. przez planowany AI Act. Chociaż należy pamiętać, że wyroby medyczne i metody in vitro na razie zostały wyłączone z tego rozporządzenia. Natomiast w niektórych kontekstach być może trzeba będzie posiłkowo wziąć pod uwagę przepisy z AI Act. Podobnie w przypadku zarządzania danymi oraz tym, co dotyczy europejskiej przestrzeni danych dla zdrowia – European Health Data Space. Obecnie całość procesu jest negocjowana. Istnieje pewna szansa na jej przyjęcie, jednak moim zdaniem obecne zapisy pozostają korzystne dla pewnych grup, jednak nie do końca dla wszystkich pacjentów.
Jak Pan ocenia korzyści, jakie AI mogłoby dać pacjentom w badaniach klinicznych? Czy lepszym podejściem jest podejście silnie regulacyjne, czy być może elastyczne?
Uważam, że musimy zwrócić uwagę na rozróżnienie między choroby tzw. ciała oraz choroby związane z psychiką. O ile choroby dotyczące różnych schorzeń o podłożu fizjologicznym, bakteryjnym czy wirusowym mogą skorzystać w znacznym stopniu z pomocy AI, również w kontekście badań populacyjnych.
Wykorzystywanie medycznych zbiorów danych może mieć bardzo negatywne konsekwencje dla jednostki pod kątem np. przewidywania zachorowalności w przyszłości. Z jednej strony możemy zapobiegać czy zmniejszać ryzyko rozwoju choroby, z drugiej może mieć to wpływ na sytuację społeczną jednostki, choćby poprzez inne warunki ubezpieczeniowe czy atrakcyjność na rynku matrymonialnym.
Kolejnym obszarem są choroby psychiczne, które nadal pozostają dość nieznanym obszarem. Zbieranie danych i prognozowanie na ich podstawie diagnoz jest co najmniej wątpliwe etycznie, również biorąc pod uwagę element stygmatyzacji chorób psychicznych – który na szczęście maleje. Byłbym tutaj bardzo ostrożny z wykorzystaniem AI. Kolejną kwestią jest również kwestia chorób genetycznych, danych biometrycznych i sekwencjonowanie genomu.
Przyznam, że wydaje mi się, że te aspekty dość mocno wymykają się sferze regulacyjnej, zwłaszcza w Stanach Zjednoczonych. Rzadko myśli się też o tym, że generatywna sztuczna inteligencja tekstowa potencjalnie może być wykorzystywana do terapii różnego rodzaju schorzeń, takich jak np. depresja. Zwłaszcza, jeżeli mówimy o terapii bazującej na nurcie behawioralno-poznawczym.
Dziękuję za wywiad.
Dziękuję.