Cyberbezpieczeństwo
Bezpieczna generatywna sztuczna inteligencja. Google tworzy ramy
Google stworzyło własne ramy dla bezpiecznej sztucznej inteligencji i chce, aby stały się one fundamentem dla myślenia o odpowiedzialnym rozwoju tej technologii. Główny nacisk w opracowanych zasadach położono na zarządzanie ryzykiem.
Google to firma, która w kwestii badań nad sztuczną inteligencją nie zasypia gruszek w popiele. Do spółki należy słynne laboratorium DeepMind mogące pochwalić się budzącymi podziw osiągnięciami na gruncie rozwoju AI. W ostatnim czasie firma wypuściła również na rynek czatbota Bard mającego konkurować z produktem ChatGPT firmy OpenAI, nieoficjalnie wspieranej inwestycjami z Microsoftu, w tym - nakładem ok. 10 mld dolarów, które obiecał zainwestować w spółkę koncern z Redmond.
Czytaj też
Bezpieczna AI według Google'a - czyli jaka?
Secure AI Framework (SAIF) ma być według wiceprezesa Google'a ds. inżynierii prywatności i bezpieczeństwa Royala Hansena „śmiałą i odpowiedzialną ramą konceptualną mającą wspierać wspólne działanie na rzecz zabezpieczenia technologii AI". Opinię tę sformułował on razem z szefem ds. bezpieczeństwa informacji Google Cloud, Philem Venablesem.
SAIF bazuje na doświadczeniu Google'a w zakresie pracy nad modelami cyberbezpieczeństwa, takimi jak SLSA i BeyondCorp, czyli architektura typu zero trust, z której korzysta wiele organizacji - pisze serwis Infosecurity Magazine .
SAIF ma być także pierwszym krokiem mającym na celu sprawne zarządzanie ryzykiem w systemach sztucznej inteligencji. Jakie to ryzyko? Np. kradzież modelu, zatrucie danych szkoleniowych lub innych, a także działania typu prompt injection i próby pozyskiwania poufnych informacji z danych szkoleniowych modeli.
Czytaj też
Sześć kluczowych reguł
Pomysł Google'a na bezpieczeństwo sztucznej inteligencji opiera się na sześciu głównych zasadach. Są to:
- rozbudowa silnych fundamentów bezpieczeństwa ekosystemu sztucznej inteligencji (m.in. poprzez zastosowanie metodologii security-by-default)
- rozszerzenie działań z zakresu wykrywania i odpowiedzi na zagrożenia, tak aby uwzględniały również obszar sztucznej inteligencji, w tym - wyniki generowane przez algorytmy generatywne
- zautomatyzowanie obrony, aby być na bieżąco z obecnymi i nowymi zagrożeniami
- harmonizacja procesów bezpieczeństwa na poziomie platform, aby zapewnić jego równy stopień w całej organizacji
- dopasowanie kontroli do potrzeb zarządzania ryzykiem i przyspieszenie feedbacku dla wdrożeń AI
- kontekstualizacja ryzyk systemowych dla rozwiązań AI w otaczających procesach biznesowych
Google zapowiedziało, że już wkrótce opublikuje kilka rozwiązań open-source, które będą służyły praktycznemu wdrożeniu powyższych zasad w organizacjach chcących zadbać o bezpieczeństwo AI.
Spółka zadeklarowała również, że rozszerzony zostanie program poszukiwania błędów w zamian za nagrody, który już wkrótce ma kłaść większy nacisk na bezpieczeństwo rozwiązań opartych o sztuczną inteligencję
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:\*[email protected].\*
Haertle: Każdego da się zhakować
Materiał sponsorowany