Technologie
ChatGPT wymaga uregulowania. „Potrzebujemy instrumentów kontroli”
Powinniśmy uregulować wykorzystanie narzędzi takic jak ChatGPT – twierdzi Tomasz Mackiewicz, kierownik Centrum Badań i Rozwoju Nowoczesnych Technologii. W rozmowie z CyberDefence24.pl zwraca uwagę na konieczność opracowania instrumentów, które pozwolą kontrolować działanie tego typu rozwiązań oraz ich użycie i tłumaczy, dlaczego to takie ważne.
„ChatGPT” – pewnie dobrze znacie tę nazwę i wiecie, że chodzi o narzędzie firmy OpenAI, które działa w oparciu o sztuczną inteligencję, a dokładnie rzecz biorąc - mechanizm głębokiego uczenia.
Czatbot zadziwił świat pod koniec ubiegłego roku, kiedy to okazało się, że potrafi sprawnie imitować (choć nie bez błędów) ludzkie wypowiedzi. Wystarczy zadać mu pytanie, a ten odniesie się do nich bez większych problemów.
Odpowiedzi są na tyle przydatne, że niektórzy wykorzystują narzędzie OpenAI nie tylko do zabawy. Z tego względu mogliście spotkać się z np. opiniami, że ChatGPT jest prawdziwym przełomem i zaprowadzi nas do (r)ewolucji.
Skoro to coś wyjątkowego, ciekawość pewnie zwyciężyła i już sprawdziliście, jak działa ChatGPT. My też (materiał pod linkiem).
To ciekawe, że można pogadać sobie z botem „o wszystkim i o niczym”. To może być nawet dobra zabawa, gdy poprosi się go o np. napisanie wiersza, tekstu piosenki (jakość pozostaje do oceny indywidualnej) albo po prostu zapyta jak mu (a może jej?) minął dzień.
Czytaj też
„Droga na skróty”
Jednak niektórzy znaleźli sposób na to, w jaki sposób wykorzystać czatbota OpenAI, aby zbytnio się nie przemęczać w swoich obowiązkach. Przykładem mogą być uczniowie i studenci, którzy sięgają po narzędzie w celu odrobienia zleconych im zadań. A to jest już oszustwo.
Zagrożenie dostrzeżono w m. in. Nowym Jorku. To tam zakazane zostanie używanie narzędzia przez uczniów w szkołach publicznych.
„Jeśli wykorzystujemy >>ChatGPT<< jako drogę na skróty, to zasadnym jest nazywanie tego typu działań oszustwem” – mówi nam Tomasz Mackiewicz, kierownik Centrum Badań i Rozwoju Nowoczesnych Technologii (CBiRNT).
Czytaj też
Potrzebujemy regulacji
Jego zdaniem, wraz z rozwojem narzędzi podobnych do rozwiązania OpenAI, powinniśmy opracowywać instrumenty, które pozwolą nam kontrolować ich działanie i wykorzystanie przez użytkowników.
Nasz rozmówca zwraca uwagę na konieczność uregulowania użycia narzędzi takich, jak ChatGPT. Według Tomasza Mackiewicza potrzebne jest stworzenie przepisów, które np. będą nakładały obowiązek informowania odbiorców o modyfikowaniu określonych materiałów (m.in. zdjęć) za pomocą „specjalistycznych programów”.
„Jeśli np. artykuł powstał przy użyciu ChatGPT, powinien być oznaczony we właściwy sposób tak, by odbiorca treści miał świadomość, że przy jego tworzeniu użyto właśnie tej technologii. Inaczej zostanie wprowadzony w błąd” – tłumaczy nasz rozmówca.
Kierownik CBiRNT przywołuje przykład norweskiego prawa. Mowa o artykule 2 znowelizowanej ustawy o marketingu, który brzmi: „Wszelkie reklamy, w których w wyniku retuszu lub innej manipulacji zmieniono kształt, rozmiar lub skórę (w tym twarz) muszą być oznaczone standardowym znakiem”.
Podobna regulacja obowiązuje we Francji.
Czytaj też
Wpływ na gospodarkę
Nie możemy skupiać się wyłącznie na zagrożeniach i ryzyku, które są związane z narzędziami z obszaru głębokiego uczenia maszynowego. Dlaczego? Ponieważ technologia daje nam możliwości i szansę. Powinniśmy z nich skorzystać.
„Jeśli odpowiednio wykorzystamy szanse, jakie niesie za sobą rozwój technologii sztucznej inteligencji, to jej wpływ na gospodarkę i pozycję pracownika będzie pozytywny” – ocenia na łamach naszego portalu Tomasz Mackiewicz.
Aby społeczeństwo było w stanie zaufać innowacyjnym rozwiązaniom i umiało się z nimi obchodzić, potrzebne są kampanie uświadamiające i edukacyjne. „Wdrożenie każdej nowej technologii, bez odpowiedniej wiedzy niesie ryzyko negatywnych skutków” – tłumaczy kierownik CBiRNT.
Po co powinniśmy to robić? Ze względu na fakt, że właściwe korzystanie z narzędzi bazujących na AI owocuje. Przykładem może być programowanie maszyn i urządzeń.
„Obecnie, by zaprogramować robota, należy mieć specjalistyczną wiedzę. Sięgając po technologię sztucznej inteligencji możemy ten proces znacznie uprościć” – mówi nam Tomasz Mackiewicz.
AI sprawdzi się również w m.in. analizie i predykcji poziomu zużycia określonego narzędzia lub też jego awarii; usprawnieniu działania administracji publicznej (np. przyspieszenie procesu rozpatrywania wniosków); czy logistyce w kontekście zmniejszenia np. kosztów utrzymania zapasów (algorytm pozwoli przewidzieć potencjalne braki, zanim faktycznie one nastąpią).
Czytaj też
Przyszłość już się zaczęła
Z pewnością sztuczna inteligencja to przyszłość. Musimy jednak mieć na uwadze, że współcześnie narzędzia bazujące na tej technologii są już wykorzystywane w praktyce. W jakich dziedzinach? ChatGPT mówi i objaśnia:
„AI zastępuje człowieka w takich zastosowaniach, jak:
- diagnostyka medyczna – AI jest wykorzystywane do wykrywania zmian w zdjęciach, skanowaniu obrazów MRI i PET, a także w wykrywaniu i diagnozowaniu chorób,
- przetwarzanie języka naturalnego – AI jest wykorzystywane w wyszukiwarkach, czatbotach, rozpoznawaniu mowy i tłumaczeniu,
- handel – AI jest wykorzystywany do tworzenia algorytmów handlowych, wykorzystujących dane do wydawania zautomatyzowanych zleceń,
- robotyka – AI jest wykorzystywane do kontrolowania,
- w przyszłości AI może być również wykorzystywany w takich dziedzinach, jak edukacja, bezpieczeństwo, praca, transport i logistyka oraz szeroko zakrojona automatyzacja”.
Nasz rozmówca zgadza się z powyższym stwierdzeniem czatbota. Zwraca jednak uwagę na to, że ChatGPT wymienia przetwarzanie języka naturalnego jako dziedzinę, w której sztuczna inteligencja zastąpi człowieka.
„Oznacza to, że będzie się uczyć i rozwijać dzięki kontaktom m. in. z nami, ludźmi. Dlatego tak ważne są regulacje zastosowania AI połączone z edukacją o niej” – podkreśla Tomasz Mackiewicz, kierownik Centrum Badań i Rozwoju Nowoczesnych Technologii.
Czytaj też
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Haertle: Każdego da się zhakować
Materiał sponsorowany