Na jakim marginesie możemy wykorzystać sztuczną inteligencję (SI) w produkcie? Czy w ogóle dopuszczać błędy? Co z obróbką naszych danych medycznych? Jan Zygmuntowski z Akademii Leona Koźmińskiego w Warszawie, który doktoryzuje się z integracją nauczania do nauczania SI tak, przez pomoc nadużyć, wyjaśnienie, dlaczego pilnie stosuje się kontrolę w tym obszarze.

Fot.  PAP/M.  Kmiecińskiego Fot. PAP/M. Kmiecińskiego

Już dziś powoływane są fundacje z hasłem: “Oddaj nam swoje dane medyczne na cele naukowe”… Co pan o tym oszacowaniu?

Z takim ruchem mamy już do czynienia również w Polsce. Są zachęcani, którzy pomogą to wykorzystać, powiedzą: “Przekaż nam dane, my wiemy, co z nimi zrobić”. Albo: „Wszystko jest bezpieczne, bo zobacz na blockchainie” (red: rejestrze zdecentralizowanych danych, które są bezpiecznie współużytkowane). Kolejne trudne słowo, kolejna ciężka technologia – i wszystko wydaje się przezroczyste.

Tylko jak się człowiek temu przyjrzy, wyda się, że blockchain to zmyłka. Nie wiadomo także, udostępnia się dane, a dokumenty dotyczące ich komunikatów są podtykane np. ludziom w szpitalu, podpis więc wszystko, bo martwią się o swoje zdrowie.

Mamy więc nawarstwienie bardzo nieetycznych decyzji, które są zgodne z prawem, bo są wspierane o konstrukt prawny świadomej zgody, który nie był, jak widać, najmądrzejszy. Czy ktoś udziela zgody na używanie swoich danych, jeśli nie ma wiedzy, kto iw jaki cel używa tych danych? Uważam, że udzielanie zgody wydaje się nie polegać na przekazywaniu danych dotyczących funduszu kontrolowanego przez dwie, trzy osoby z zarządu, które mają swoje układy, tylko dlatego, że ludzie bezpośrednio podejmują decyzje, czyli głosują nad otrzymaniem od firmy danych ich na potrzeby.

To nie jest niemożliwe, choć brzmi zagmatwanie. Po pierwsze, skoro wszyscy mogą pobrać Internetowe Konto Pacjenta, do takiego głosowania NFZ mógłby wprowadzić do tego konta. NHS (ang. National Health Service) w Wielkiej Brytanii już to robi, po uwzględnieniu obywatelskich ławy przysięgłych, które dostają wnioski i losuje się niektórych pacjentów z różnych grup demograficznych: młodych, starszych, z rozwojem edukacji i pytają ich, czy mogą, że te dane, które mają być przekazane, czy chcą, żeby taka oto sztuczna inteligencja była trenowana.

NHS nie jest jednak dobre działanie, bo sprzedawał dane Googlowi i Palantirowi, spółka spod znaku Elona Muska...

Ale na szczęście jest Finlandia, gdzie państwowa instytucja dysponuje danymi wszystkich Finów – 5,5 mln. Ta instytucja nie narusza prywatności, bo sama korzysta z bezpiecznego środowiska programowania, pozwala na dane tylko na swoich zasadach, cyberbezpieczeństwo jest jej oczkiem w głowie, dopiero potem idą innowacje. Jeśli innowator – uczelnia – spełniają wszystkie warunki, dostęp do.

To jest super, tylko brakuje czynnika ludzkiego. Moim zdaniem Polska musi znaleźć swój środek: zaangażować ludzi, mieć silne instytucje państwowe, które dziesięć procesów pociągną. Polacy są prawie 40 milionów, to naprawdę łakomy kąsek. Bardzo szczegółowe sprawy. Przykładem dobry praktyk w Polsce jest hasło „honorowy dawca danych”.

Jestem krwiodawcą, mój kolega jest innowatorem w krwiodawstwie, dla nas było bardzo ważne, żeby o dawaniu danych w celu tworzenia sztucznej inteligencji, przez konstruowanie postępów społecznych. Nie chciałbym, żeby ludzie mieli to, że oddawanie danych dla zainteresowania publicznego jest złe. Nie jest, jest potrzebne. Ale…

zaczynasz tu, niestety, technologij szopki.

Z całego świata pod kątem inżynierii technologicznej Polska jest kolonią.

Użytkownicy internetu nawet nie zgłaszają sobie spraw, że Google co prawda nie pobiera opłat za ustawienia, ale używa naszych danych i nimi obraca. Tak więc przeciętnego Kowalskiego raczej nie obejdą tak trudne sprawy, o których teraz rozmawiamy.

Ależ Google pobiera opłaty np. za pomocą mapy określonej liczby wyświetleń i każe sobie słono wypłaty. Normalny użytkownik tego nie widzi, dostarczamy dane i mapy są dzięki temu świetne, wykrywają korki w mieście itp. Ale jeśli ktoś korzysta z aplikacji dostarczania żywności, sporo płaci.

Zapytał pan sztuczną inteligencję, w jakich krokach tworzymy związek zawodowy, ta wskaza – punkt pierwszy – idź do szefa – bo taki krok wynika z jej oceny. Ta absurdalna odpowiedź jest skuteczna, jak bardzo SI musi być śledzona. A kto w polskim systemie ochrony zdrowia w obecnym kształcie jego ochrony prawnej?

To jest dobre pytanie. Akademia Leona Koźmińskiego razem z polskimi legislatorami chce na nie osiągnąć. Na początku marca organizujemy konferencje naukową pod patronatem Sejmu. Legislatorzy, ludzie i osoby rozumiejące problemy SI mają uzgodnić, jak wdrożyć SI, jak oceniać, co to znaczy, gdy powiemy, że ten system jest dobry. Czy to, że 95 procent wykroczeń rozpoznaje się bardzo dobrze i nie myli się bardziej niż człowiek, czy mamy go w porównaniu z wymaganiami wobec człowieka? Jakiego rodzaju błędy mogą pochodzić: czy jeśli coś jest przyczyną, a on jej nie rozpoznaje i powie, że choroba nie ma, albo czy faktycznie nie ma choroby, a on powie: złapałem ten przypadek. Jaki błąd jest podobny: wskazanie leczenia, kiedy ktoś jest zdrowy, czy niewskazanie leczenia, kiedy ktoś jest chory?

Na pytanie, kto powinien się tym wyłączyć, odpowiem, że może być Agencja Oceny Technologii Medycznych i Taryfikacji, przy czym „technologie medyczne” w tej sprawie obecnie są rozumiane jako leki. Instytucja doprowadziłaby rozciągnąć swoją technologię, że „technologia medyczna” to również technologia cyfrowa wykorzystuje zastosowanie w leczeniu. Tu jest ogromna praca instytucjonalna do wykonania. Początek drogi do odpowiedzi na pytanie, kto ocenia. Dalsza podróż na odpowiedź na pytanie, kto ocenia ocenę i mówi: „To się jednak nie sprawdziło”.

No i cały przedmiot sporu, czyli jak będziemy taryfikować, jak będziemy dostarczać świadczenie za aplikację SI? Więc jeśli ona jest przeznaczona na publiczne uczelnie, wykarmiona przez polskich pacjentów, ale na koniec ktoś jest częścią tej własności intelektualną IP do startupu, finansuje duży fundusz venture capital, a następnie przekazuje ten startup, np. Googlowi, a ten przychodzi do nas za dekadę i mówi: „Fajnie, że pobawicie się, to był pilot, od teraz za każdym skanem, np. diagnostyka raka płuca, muzyka chirurgiczna”. A że idzie już w zaawansowane wolumeny, chodzi o wielkie pieniądze. Czy to jest etyczne?

A skoro jesteśmy przy etyce, trzeba uwzględnić temat umiejętnego łączenia podręcznika do szkolenia SI. W Europie już tworzymy wspólne dane. Co nie zmienia faktu, że rządy bardzo sprytnie realizują swoje interesy. np. z dostępem do danych medycznych.

Właśnie do badam w moim doktoracie. Dobrze, że współpracują dane, ale jeden poziom na poziomie bardzo podobny i rośnie bardzo powoli. Kolebką spółdzielczości jest Szwajcaria – tam działa dobrze, w kraju Basków też. W Polsce? Sam jestem spółdzielcą cyfrową, ale na razie nawet nie zbliżamy się do danych medycznych. To jest bardzo trudne. Zawsze trzeba zadać bezpośrednie pytanie, jak to finansować. Bo przecież nie chodzi o to, żeby pozbierać dane i wydać je wielkim korporacjom i mieć z tego tylko kieszonkowe.

Czy zatem nie należy być globalnym porozumieniem?

Uważam, że nie ma od tego ucieczki, bo opiera się na całym układzie systemu patentowego, własności intelektualnej, danych – wszystko to podlega kontroli układu międzynarodowego.

Wprowadziliśmy RODO i wykazaliśmy, że Facebook, Google, Amazon masowo je łamią. Maksymilian Szrems z Austrii pozywał te firmy – w myślach wyrokach wygrywał. Uznano, że przekazywanie danych do USA jest tak samo niebezpieczne jak do Chin czy Rosji. Co oznacza: widzieć wszystko, co tylko zechcą. Odpowiedź była taka, że ​​potrzebna jest umowa między Unią a Stanami Zjednoczonymi na temat, jak określono dane, aby usługa ich nie widziała. Każdy wiedział, że to fikcja, bo usługa zawsze będzie korzystać z danych. Z tym, że usługi w jednostkach są o wiele potężniejsze niż u nas. Mimo tej skarpety wiedzy s podstaw fikcji, jaka jest umowa zwana „tarczą prywatności”. Takich porozumień międzynarodowych na temat przepływu danych jest mnóstwo. Zamiast tego należy stosować się do RODO również woli podpisywać specjalne z całej UE.

Na najniższym poziomie mamy Światową Organizację Handlu i umowy TRIPS, czyli umowy w sprawie Handlowych Aspektów Praw Własności Intelektualnej.

A podważenie TRIPS wiele razy wychodziło z medycyny. Weźmy koronawirusa. Wynaleziono szczepionki w krajach bogatej Północy, małe startupy dostarczające umowy z producentami firmami, np. niemiecki BionTech z Pfizerem, który jest w stanie podawania szczepionki. Ale i tak nie tyle dawek, żeby cały świat zaszczepić w określonym czasie – kraje biedne będą następne w kolejce. W takiej sytuacji warto zwrócić uwagę na ochronę patentową. Jeśli RPA czy Indie będą miały takie same szczepionki, to naprawdę nie zaszkodzi bogatym północnym graczom. Świat jest bardzo duży dla różnych producentów. Okazało się jednak, że „nie można” podważyć TRIPS. W innych przypadkach pule patentowe, specjalne specjalne. Jak gdzieś się stało epidemia, faktycznieno: damy wam na chwilę pojawił się spod zarzutu patentowego.

Globalne porozumienie jest potrzebne, bo raz na zawsze załatwia problemy: kto ma prawo dostarczyć dane? Co robimy, kiedy patenty realnie przynoszą zabijanie ludzi i jakie są wytwarzanie tego? Monopolowi własności należy przeciwdziałać większej liczbie. Wiedza powinna być wolna, nikt nie traci na tym, że wiem coś więcej.

rozmawiała Beata Igielska, zdrowie.pap.pl

Fot.  Archiwum J. Zygmuntowskiego

Jan Zygmuntowski, naukowiec zajmujący się SI,

Jest pracownikiem naukowym Akademii Leona Koźmińskiego w Warszawie. Pisze doktorat na temat umiejętnego łączenia nauczania do szkolenia sztucznej inteligencji tak, przez dodanie nadużyć. Ekonomista produktu z obszaru innowacji, cyfrowego gospodarki i rozwoju. Współprzewodniczący zrzeszenia ekonomistów Polska Sieć Ekonomii. Doradza i wspiera w rozwoju projektów innowacyjnych z dodatkowym wsparciem.

Czytaj dalej…%%custom_html1%%