Reklama

Cyberbezpieczeństwo

Bezpieczna generatywna sztuczna inteligencja. Google tworzy ramy

Autor. Marcin Wichary / Flickr

Google stworzyło własne ramy dla bezpiecznej sztucznej inteligencji i chce, aby stały się one fundamentem dla myślenia o odpowiedzialnym rozwoju tej technologii. Główny nacisk w opracowanych zasadach położono na zarządzanie ryzykiem.

Reklama

Google to firma, która w kwestii badań nad sztuczną inteligencją nie zasypia gruszek w popiele. Do spółki należy słynne laboratorium DeepMind mogące pochwalić się budzącymi podziw osiągnięciami na gruncie rozwoju AI. W ostatnim czasie firma wypuściła również na rynek czatbota Bard mającego konkurować z produktem ChatGPT firmy OpenAI, nieoficjalnie wspieranej inwestycjami z Microsoftu, w tym - nakładem ok. 10 mld dolarów, które obiecał zainwestować w spółkę koncern z Redmond.

Reklama

Czytaj też

Reklama

Bezpieczna AI według Google'a - czyli jaka?

Secure AI Framework (SAIF) ma być według wiceprezesa Google'a ds. inżynierii prywatności i bezpieczeństwa Royala Hansena „śmiałą i odpowiedzialną ramą konceptualną mającą wspierać wspólne działanie na rzecz zabezpieczenia technologii AI". Opinię tę sformułował on razem z szefem ds. bezpieczeństwa informacji Google Cloud, Philem Venablesem.

SAIF bazuje na doświadczeniu Google'a w zakresie pracy nad modelami cyberbezpieczeństwa, takimi jak SLSA i BeyondCorp, czyli architektura typu zero trust, z której korzysta wiele organizacji - pisze serwis Infosecurity Magazine .

SAIF ma być także pierwszym krokiem mającym na celu sprawne zarządzanie ryzykiem w systemach sztucznej inteligencji. Jakie to ryzyko? Np. kradzież modelu, zatrucie danych szkoleniowych lub innych, a także działania typu prompt injection i próby pozyskiwania poufnych informacji z danych szkoleniowych modeli.

Czytaj też

Sześć kluczowych reguł

Pomysł Google'a na bezpieczeństwo sztucznej inteligencji opiera się na sześciu głównych zasadach. Są to:

  • rozbudowa silnych fundamentów bezpieczeństwa ekosystemu sztucznej inteligencji (m.in. poprzez zastosowanie metodologii security-by-default)
  • rozszerzenie działań z zakresu wykrywania i odpowiedzi na zagrożenia, tak aby uwzględniały również obszar sztucznej inteligencji, w tym - wyniki generowane przez algorytmy generatywne
  • zautomatyzowanie obrony, aby być na bieżąco z obecnymi i nowymi zagrożeniami
  • harmonizacja procesów bezpieczeństwa na poziomie platform, aby zapewnić jego równy stopień w całej organizacji
  • dopasowanie kontroli do potrzeb zarządzania ryzykiem i przyspieszenie feedbacku dla wdrożeń AI
  • kontekstualizacja ryzyk systemowych dla rozwiązań AI w otaczających procesach biznesowych

Google zapowiedziało, że już wkrótce opublikuje kilka rozwiązań open-source, które będą służyły praktycznemu wdrożeniu powyższych zasad w organizacjach chcących zadbać o bezpieczeństwo AI.

Spółka zadeklarowała również, że rozszerzony zostanie program poszukiwania błędów w zamian za nagrody, który już wkrótce ma kłaść większy nacisk na bezpieczeństwo rozwiązań opartych o sztuczną inteligencję

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na:\*[email protected].\*

Reklama

Haertle: Każdego da się zhakować

Materiał sponsorowany

Komentarze

    Reklama