Reklama

AI w firmie pod kontrolą. Jak zachować suwerenność danych i bezpieczeństwo?

Autor. Canva

W dobie dynamicznego rozwoju sztucznej inteligencji, dane stają się jednym z najcenniejszych zasobów współczesnego świata. To na nich uczą się algorytmy, które później wspierają nas w codziennych decyzjach. Jednak wraz ze wzrostem znaczenia danych rośnie również potrzeba ich ochrony, nie tylko pod względem prywatności, ale także suwerenności.

Materiał sponsorowany

Suwerenność danych to nie tylko kwestia techniczna, lecz również strategiczna. Dotyczy tego, kto kontroluje dane, gdzie są przechowywane i kto ma do nich dostęp. W kontekście rozwiązań opartych na AI, które często opierają się na globalnej infrastrukturze chmurowej, wyzwania związane z bezpieczeństwem danych stają się szczególnie istotne.

W rozmowie z Michałem Włodarczykiem, ekspertem Dell Technologies, poruszamy najciekawsze kwestie związane z bezpieczeństwem AI oraz nowoczesnymi technologiami tworzonymi przez Dell.

Dorota Kwaśniewska, Redaktorka CyberDefence24: Jak dziś rozumiemy suwerenność AI i suwerenność danych, co się na nie składa?

Michał Włodarczyk, ekspert Dell Technologies: Suwerenność AI i danych to kontrola nad tym, gdzie i jak przechowywane są dane, kto ma do nich dostęp oraz jak działają modele, które je przetwarzają. To kwestia nie tylko bezpieczeństwa, ale też niezależności technologicznej i ochrony poufnych informacji, zarówno na poziomie organizacji, jak i wewnętrznych działów.

Jaka jest rola infrastruktury lokalnej i hybrydowej w zapewnieniu bezpieczeństwa?

Infrastruktura lokalna daje większą kontrolę nad danymi, wyższy poziom bezpieczeństwa i eliminuje koszty transferu danych, więc warto o niej myśleć w kontekście np. przetwarzania ważnych danych wewnętrznych Z kolei podejście hybrydowe zakłada korzystanie tak z chmury, jak i rozwiązań on-premise.

Możemy na przykład wypróbować uruchamianie lekkich agentów AI blisko użytkownika (np. na laptopie), którzy komunikują się z centralnym systemem. To połączenie lokalności i centralizacji tworzy  szybki i elastyczny ekosystem AI, w którym kluczowe dane nie wychodzą poza organizację.

Czy Dell wykorzystuje wewnętrzne rozwiązania oparte na sztucznej inteligencji i jaki jest poziom świadomości ich stosowania wśród pracowników i klientów?

W Dell korzystamy z różnych rozwiązań, które bazują na sztucznej inteligencji. W dzisiejszych realiach trudno znaleźć średnią lub dużą firmę, która w jakimś stopniu nie używa AI, często nawet nie będąc tego w pełni świadomą. Przykładem mogą być narzędzia, które działają w tle, np. automatycznie podsumowując spotkania, a użytkownicy nie zawsze zdają sobie sprawę, że to właśnie AI stoi za tymi funkcjami.

Ten brak świadomości może być jednak ryzykowny. Jeśli nie wiemy, że dane są przetwarzane przez AI, to trudno mówić o pełnej kontroli nad tym, gdzie trafiają i kto może mieć do nich dostęp. Dlatego coraz większą wagę przykładamy do tzw. lokalnych rozwiązań AI. Takich, które działają w ramach infrastruktury firmy.  Z tego powodu duże organizacje - w tym Dell - wprowadzają własne narzędzia wspomagające, które działają w kontrolowanym środowisku. To zarówno rozwiązania zbliżone działaniem do powszechnie znanych chatów, jak i działające w tle, umożliwiające raportowanie, czy analizę celów i kierunków, w których firma podąża. Idealnie, jeśli modele AI mogą działać bezpośrednio na naszych własnych serwerach.

Czytaj też

Dell i technologie związane ze sprzętem AI

Jak Dell pomaga w budowaniu zaplecza technicznego dla technologii AI?

Dell jest dla organizacji strategicznym partnerem technologicznym. Współpracujemy ze światowymi liderami i korzystamy z ich komponentów, ale kluczowa jest wiedza, jak je dobrze zintegrować i zoptymalizować. Główne wyzwania stanowią:

  • Chłodzenie sprzętu: trudno schłodzić intensywnie obciążone komponenty, które mogą się przegrzewać przy tradycyjnych metodach utrzymywania optymalnej temperatury.
  • Dostarczenie energii: obsłużenie dużego zapotrzebowania na prąd w jednej szafie.
  • Sieci i storage: ogromna moc wymaga szybkich sieci i wydajnych systemów pamięci masowej.

Dell buduje własne serwery, przełączniki sieciowe i współpracuje z partnerami, by zapewnić pełną niezależność i optymalizację środowiska. Przykładów jest wiele, serwery PowerEdge wykorzystują hybrydowe systemy chłodzenia cieczą i powietrzem, co pozwala obniżyć zużycie energii wentylatorów nawet o połowę, utrzymując stabilność przy dużych obciążeniach GPU. Z kolei rozwiązania storage, takie jak PowerStore, przez zaawansowaną deduplikację i kompresję danych redukują ich objętość nawet 5:1, albo tak jak PowerScale – mogą być rozbudowywane praktycznie w nieskończoność – tak pod względem pojemności, jak i wydajności.

Wiedza, jak dobrze połączyć te elementy, jest kluczowa, ponieważ łatwo kupić dużo sprzętu, ale najważniejsza jest jego efektywna integracja. Nieodpowiednio dobrane elementy powodują spowolnienia i problemy. Dell proponuje fabryki sztucznej inteligencji oraz doświadczenie, które pozwala nam realizować złożone rozwiązania praktycznie i na dużą skalę. Potrafimy zapewnić wiedzę, wsparcie, bezpieczną i skalowalną infrastrukturę AI, od desktopu, przez data center, po chmurę.

Jak zatem wygląda fabryka AI Dell?

Fabryka AI to kompletny framework, który obejmuje infrastrukturę zawierającą serwery, przechowywanie, sieci, połączony z wiedzą, jak efektywnie uruchamiać i automatyzować modele, w tym systemy wieloagentowe. Dell dostarcza gotową podstawę, na której można elastycznie budować własne rozwiązania AI, bez obaw o nieoptymalne działanie poszczególnych elementów. To baza, która pozwala skupić się na tworzeniu wartości na wyższych warstwach, czyli tam, gdzie działa końcowy użytkownik.

Jakie są koszty utrzymania własnego modelu opartego na AI?

Koszty utrzymania własnego modelu AI to temat otwarty i dynamiczny. Z jednej strony, podstawowe modele rzeczywiście stają się coraz większe, ponieważ są trenowane na coraz większych zbiorach danych. Z drugiej jednak strony, rozwijają się też skuteczne metody ich optymalizacji, które pozwalają znacznie zmniejszyć koszty operacyjne. Mówimy tu m.in. o technikach takich jak kwantyzacja, a także o podejściach opartych na agentach i systemach wieloagentowych, które składają się z mniejszych, wyspecjalizowanych modeli współpracujących ze sobą. Ogólny trend jest jednak wyraźny: AI staje się coraz tańsze.

Reklama

Bezpieczeństwo rozwiązań opartych na sztucznej inteligencji

Jak powinna wyglądać kontrola dostępu do informacji dla AI?

AI powinna mieć dostęp tylko do tych danych, do których ma dostęp użytkownik, który z niej korzysta. Poza tym, że niektórymi danymi nie chcemy dzielić się poza organizacją, to również wewnątrz firmy nie każdy ma dostęp do wszystkich informacji, np. pracownik działu sprzedaży do listy płac.  Dlatego tak ważne jest wdrażanie kontroli dostępu również dla agentów AI. Jesteśmy dopiero na początku drogi z tą technologią, a już wiemy, że AI potrafi wyciągać informacje ze źródeł, do których nie powinna sięgać. To pokazuje, jak kluczowe jest odpowiedzialne zarządzanie uprawnieniami.

Czyli można zauważyć rosnącą rolę bezpieczeństwa zapytań w modelach AI?

Tak, bezpieczeństwo zapytań w AI zyskało na znaczeniu, bo proste mechanizmy zabezpieczające szybko okazały się niewystarczające. Użytkownicy nauczyli się je omijać poprzez sprytne formułowanie promptów. Dlatego obecnie stosuje się ochronę zarówno na wejściu (blokowanie szkodliwych promptów od razu), jak i na wyjściu (weryfikacja, na co model finalnie odpowiada). To znacząco zwiększa bezpieczeństwo odpowiedzi modelu.

Jakie są zatem największe wyzwania, które obserwujemy?

Modele AI uczono tak, by odpowiadały zgodnie z oczekiwaniami użytkownika, a niekoniecznie zgodnie z prawdą. To prowadzi do halucynacji i zniekształceń. AI może „wymyślać” fakty. W zastosowaniach biznesowych preferujemy tryb analityczny i niższą temperaturę odpowiedzi, by zmniejszyć ryzyko błędów. Dodatkowe ryzyko to nieprawdziwe dane. Wystarczy kilkaset fałszywych dokumentów, by wpłynąć na wiedzę modelu.

Stąd ważne jest, aby zawsze sprawdzać odpowiedzi, które są generowane przez chat. W środowiskach firmowych kluczowe jest więc nie tylko to, jakiego modelu używamy, ale jakie dane mu dostarczamy, skąd one pochodzą i czy są aktualne. Dlatego projekty AI powinny zaczynać się od uporządkowania danych.

Czytaj też

Pozytywne aspekty wdrożeń AI w organizacjach

Wiele firm decyduje się na wdrożenie wewnętrznych systemów AI. Jakie są najważniejsze korzyści wynikające z wykorzystania takich rozwiązań?

AI w firmach często służy jako inteligentna wyszukiwarka. Wewnętrzny czat, z którym pracownicy mogą rozmawiać i zadawać pytania, pozwala szybko znaleźć potrzebne informacje podając także, z którego dokumentu one pochodzą. To naprawdę ułatwia pracę i oszczędza mnóstwo czasu.

Co więcej, AI świetnie radzi sobie z automatyzacją powtarzalnych zadań. Na przykład potrafi pisać podsumowania ze spotkań, układać grafik, planować kalendarz czy wysyłać proste maile podsumowujące. W irlandzkiej fundacji Crann wdrożone przez Dell rozwiązanie AI podczas rozmów pracowników z podopiecznymi automatycznie tworzy notatki. Dane są przetwarzane lokalnie, zabezpieczone, a obsługa może skupić się na rozmowie, a nie na wypełnianiu formularzy.

AI zaczyna też wspierać edukację w firmach. Pomaga kursantom w nauce, podpowiada, na co powinni zwrócić uwagę i co warto jeszcze przyswoić.

AI działa coraz bardziej w tle. Już nie jest tylko tym chatbotem, z którym się rozmawia, ale wchodzi głębiej w procesy firmowe, pomaga organizować pracę i ułatwia codzienne funkcjonowanie całych zespołów.

Dziękuję.

Czytaj też

Reklama
CyberDefence24.pl - Digital EU Ambassador

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama

Cyfrowy Senior. Jak walczy się z oszustami?

Komentarze

    Reklama