Strona główna
Szef IBM: firmy powinny być odpowiedzialne za błędy swojej AI
Firmy powinny być odpowiedzialne za sztuczną inteligencję, którą rozwijają - uważa szef IBM Arvind Krishna. Jego zdaniem stroną, która powinna tę odpowiedzialność egzekwować, jest rząd.
Waszyngton powinien egzekwować odpowiedzialność ze strony firm technologicznych za sztuczną inteligencję, którą rozwijają - uważa szef firmy IBM Arvind Krishna. Jego zdaniem, odpowiedzialność powinna dotyczyć również osób, które z wykorzystaniem nowych technologii dokonały szkód i użyły jej w złych celach.
W rozmowie z serwisem Politico Krishna opowiedział się po stronie regulacji, zajmując tym samym inną pozycję, niż większość firm technologicznych, sprzeciwiających się zacieśnianiu ram prawnych wokół nowych technologii. Branża w regulacjach upatruje raczej ograniczenia rozwoju sztucznej inteligencji - stąd lobbuje wyraźnie przeciwko takim rozwiązaniom, czego dobrym przykładem może być szef OpenAI - Samuel Altman, który może zaliczyć do swoich „sukcesów” osłabienie zapisów Aktu o sztucznej inteligencji w UE.
Odpowiedzialność prawna firm
Zdaniem szefa IBM, „dwa tysiące lat historii gospodarki pokazują nam, że jest się odpowiedzialnym prawnie za to, co się stworzyło”. W jego opinii, rząd federalny w Waszyngtonie powinien pociągać do odpowiedzialności twórców sztucznej inteligencji, którzy nie zadbają o usunięcie z nich luk i podatności, pozwalających na wykorzystanie ich do robienia szkód w realnym świecie.
Same firmy powinny być też odpowiedzialne za to, jak sztuczna inteligencja jest wykorzystywana - w szczególności w przypadkach, gdy powoduje problemy. Krishna podał tu przykład przedsiębiorstw, które mogą używać AI w działaniach rekrutacyjnych i chcieć uniknąć odpowiedzialności za dyskryminację.
Inną drogą niż social media
Sztuczna inteligencja nie powinna iść tą samą drogą, co media społecznościowe - stwierdził szef IBM. Jego zdaniem, w przypadku wielkich platform, regulacje internetu, które powstały na początku funkcjonowania globalnej sieci, wciąż chronią social media od odpowiedzialności za wywieranie złego wpływu na rzeczywistość.
Jeśli ramy prawne w porę nałożą odpowiedzialność na AI, istnieje szansa, że firmy dostarczające usługi oparte o tę technologię będą działały w sposób bardziej bezpieczny dla użytkowników i będą postępować zgodnie z regulacjami, również tymi, które już istnieją - w kwestiach np. ochrony własności intelketualnej czy praw autorskich.
Doradzić politykom
Krishna, jak pisze Politico, to jeden z uczestników grupy, której skład wchodzą szefowie innych wielkich firm technologicznych, takich jak Google, Meta, Amazon czy X. Zebrała się ona w ub. miesiącu po to, aby porozmawiać z amerykańskimi senatorami na temat szans i zagrożeń stwarzanych przez szybki rozwój technologii sztucznej inteligencji.
IBM to z kolei firma, która - jak zaznacza Politico - podpisała deklarację o tym, że będzie budować bezpieczne modele sztucznej inteligencji. Jednocześnie jej szef zdaje sobie sprawę - przynajmniej deklaratywnie - że wezwania do zgodności z regulacjami i poddania się ramom prawnym nie przysparzają mu popularności w świecie liderów nowych technologii.
Krishna jednak wskazuje, że stawka rośnie w kontekście sztucznej inteligencji, jeśli zdamy sobie sprawę z tego, iż technologie te będą wdrażane również w kontekstach takich, jak infrastruktura krytyczna.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].