Technologie
Oczekujemy prawdy. „W przypadku sztucznej inteligencji to niemożliwe”
„Od rozwiązań informatycznych oczekujemy prawdy, całej prawdy i tylko prawdy. Otóż w przypadku sztucznej inteligencji jest to niemożliwe do osiągnięcia” - mówił podczas debaty na Uniwersytecie Warszawskim prof. dr hab. Wojciech Cellary. Uczestnicy omawiali wyzwania związane z ochroną danych w kontekście rozwoju AI.
Konferencja naukowa „Ochrona danych osobowych w świetle aktu o sztucznej inteligencji i innych aktów wdrażających europejską strategię danych” odbyła się w czwartek 27 czerwca na Wydziale Prawa i Administracji Uniwersytetu Warszawskiego .
Debatę „Dane osobowe w modelach sztucznej inteligencji” moderował dr hab. Arwid Mednis z UW. Uczestniczyli w niej Michał Jaworski z Microsoftu; Piotr Dobek, radca prezesa UODO; prof. dr hab. Wojciech Cellary oraz prof. Emma Redmond, szefowa działu zajmującego się prywatnością i ochroną danych w OpenAI.
Ochrona danych a AI Act
Dr hab. Arwid Mednis zaznaczył, że kwestia ochrony danych w kontekście sztucznej inteligencji zostanie w dużej mierze uwzględniona w Akcie o sztucznej inteligencji.
Dokument ten ma zostać opublikowany w Dzienniku Urzędowym Unii Europejskiej 12 lipca, a zacznie obowiązywać 24 miesiące po wejściu w życie.
„AI Act za dwa lata może już nie przystawać do rozwoju technologicznego” – zauważył prof. Tomasz Giaro. Na ten moment te kwestie rozpatrywane są m.in. w ramach RODO.
Czytaj też
Sztuczna inteligencja nie opiera się na logice
Ciekawy wątek podjął prof. Wojciech Cellary. Zauważył, że uczenie maszynowe różni się zasadniczo od klasycznego programowania. To drugie opiera się na logice, rozumowaniu przyczynowo-skutkowym, determinizmie i dążeniu do perfekcji.
Natomiast uczenie maszynowe opiera na się na szukaniu wzorców i podobieństw w gigadanych. Ma to związek z probabilistyką, czyli rachunkiem podobieństwa, jaki wykonuje sztuczna inteligencja. Na tej podstawie generuje wyniki.
Według prof. Cellarego, sztuczna inteligencja jest więc niezdolna do perfekcji. Stąd natomiast wynikają takie zjawiska, jak bias i halucynacje, które prof. przetłumaczył jako stronniczość i kłamstwa.
Czytaj też
Stronniczość sztucznej inteligencji
Prof. Cellary wyróżnił tu stronniczość techniczną, która wynika z modelu sieci neuronowej, skonstruowanej tak, aby móc przewidywać. „Stronniczość techniczna nie jest błędem. Jest niezbędna do tego, żeby sztuczna inteligencja robiła to, czego od niej oczekujemy” – zauważył profesor.
Oprócz tego wyróżnił stronniczość społeczną, która wynika z danych, jakie zostały wprowadzone przez człowieka. „Zbiory danych, jakie przetwarza AI są niekompletne, a informacje nie są równo reprezentowane (np. więcej jest informacji w języku angielskim niż polskim – red.)” – mówił prof. Cellary. W zbiorze danych AI znajdują się też fałszywe informacje, dezinformacja, uprzedzenia i dyskryminacje, które wynikają np. z tego, że dane pochodzą z internetu.
AI przetwarza też dane osobowe i potrafi je przewidzieć, „nawet na podstawie słabych korelacji” – zauważył naukowiec.
Jak podkreślił – firmy, które dostarczają generatywne modele AI próbują walczyć ze stronniczością społeczną. Robią to np. przez odfiltrowywanie treści uznanych za nieodpowiednie oraz przez odmowę odpowiedzi na prompty, które są np. rasitowskie. „Od rozwiązań informatycznych oczekujemy prawdy, całej prawdy i tylko prawdy. Otóż w przypadku sztucznej inteligencji jest to niemożliwe do osiągnięcia” – podsumował prof. Cellary.
Czytaj też
Zgoda obywatela czy „uzasadniony interes" firmy?
Dyskutanci zastanawiali się, czy kontekście przetwarzania danych osobowych przez firmy technologiczne ważniejsza jest zgoda obywateli czy „prawnie uzasadniony interes” branży. Nie padła jednoznaczna odpowiedź na to pytanie.
O uzasadnionym interesie w trakcie debaty mówiła prof. Emma Redmond, szefowa działu zajmującego się prywatnością i ochroną danych w OpenAI. „Naszą misją jest dostarczenie bezpiecznej i przydatnej ludziom sztucznej inteligencji” – stwierdziła.
„Widzimy wiele zalet tej technologii, ludzie bardzo ją doceniają, mogą wydajniej pracować, polepsza się obsługa klienta czy rolnictwo. Sztuczna inteligencja umożliwia też wyrównywanie nierówności np. wobec osób z niepełenosprawnościami”- wymieniała prof. Redmond.
Przedstawicielka OpenAI podkreślała, że bardzo ważne jest stworzenie prawnego system zarządzania danymi. Z drugiej strony stwierdziła jednak, że aby LLM istniało, musi mieć dostęp do ogromnej ilości danych, w tym danych osobowych. „Żeby na przykład sztuczna inteligencja mogła wiedzieć, że Emma to imię, a Redmond nazwisko” – skomentowała.
Czytaj też
Pozwy wobec Big Techów
To nie pierwszy raz, kiedy przedstawiciele Big Techów uzasadniają trenowanie modeli sztucznej inteligencji na danych obywateli w ten sposób. Zapominają jednak przy tym o prawach, takich jak prawo do ochrony danych, a także, że część informacji jest chronionych prawem autorskim.
Co prawda prawo nie zabrania wprost trenowania sztucznej inteligencji na danych z internetu, ale jest już kilka pozwów w tej sprawie, w tym skierowanych wobec OpenAI.
Z koncepcją uzasadnionego interesu firm nie zgadza się też wiele organizacji pozarządowych, w tym Amnesty International i Noyb.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].