Technologie
Technologiczny wyścig o sztuczną inteligencję. Google ogłasza wiele nowości w swojej wyszukiwarce
![Konferencja Google ws. nowości dot. sztucznej inteligencji - live z Paryża](https://cdn.defence24.pl/2023/02/08/800x450px/olONOxwQog6Wz5Du2MW88qd27ACEv87njA4TETjT.j4gs.png)
Autor. screen CyberDefence24.pl / YouTube - Google
Google oficjalnie zapowiedziało stworzenie usługi AI, którą nazwało Bard. Narzędzie ma być doskonalsze od popełniającego błędy ChatGPT i ma korzystać z informacji w czasie rzeczywistym. Jednocześnie sztuczna inteligencja zasili też produkty internetowe Microsoftu – wyszukiwarkę Bing oraz przeglądarkę Edge. Zaczyna się technologiczny wyścig.
Jak opisywaliśmy , zapowiadana przez Google usługa Bard ma być „bardziej inteligentna” od chatbota autorstwa OpenAI, ponieważ model językowy giganta ma opierać się na informacjach z sieci aktualizowanych na bieżąco, by zapewnić „odpowiedzi wysokiej jakości”, bazujące na nowych informacjach. Obecny model ma być inną wersją LaMDA, o znacznie miejszej mocy obliczeniowej, co ma pozwolić na początek na uzyskanie większej liczby informacji zwrotnych od testerów.
Testy usługi Bard mają polegać m.in. na połączeniu informacji zewnętrzych od testerów, z wewnętrznymi - by upewnić się, że odpowiedzi udzielane przez Bard spełniają wymogi jakości, bezpieczeństwa i rzetelności. Testy będą także opierać się na sprawdzaniu szybkości udzielanych odpowiedzi, a w najbliższym czasie swoje uwagi będą mogli zgłosić zaufani programiści.
Nowości w Google Tłumacz
To jednak nie wszystko – w czasie konferencji i trasmisji live, managerowie Google’a ogłosili kolejne nowości, pokazując w jaki sposób sztuczna inteligencja będzie w najbliższych miesiącach wpływać na mechanizmy działania wyszukiwarki giganta.
Po pierwsze, firma wprowadza nowe funkcjonalności, by korzystanie z Tłumacza (Google Translate) było znacznie prostsze w przeglądarkach i na telefonach. W tym miesiącu mają zostać dodane opcje tłumaczenia kontekstowego - obejmujące opisy i rozmaite przykłady w języku docelowym. Tłumacz ma też podpowiadać odpowiednie sformułowania czy idiomy, które są stosowane w rodzimym języku, a do tej pory mogły nie być właściwie odczytywane przez wyszukiwarkę. W pierwszej kolejności ta funkcja ma być dostępna w językach: angielskim, francuskim, hiszpańskim, japońskim i niemieckim.
Google Tłumacz pojawił się w odświeżonej wersji na Adroida, a wkrótce ma być dostępny także dla użytkowników z systemem iOS. Pojawi się też opcja tłumaczenia rozmów, mowy oraz tekstu ze zdjęć zrobionych Obiektywem Google (nie tylko samego tekstu, ale też np. całego tekstu z tła). Uproszone zostanie też korzystanie z aplikacji, a przetłumaczony tekst będzie bardziej czytelny. Dodano obsługę 33 nowych pakietów językowych m.in. jidysz, korsykański, kurdyjski, luksemburski, łacina, sundajski i zulu, z których można korzystać również w trybie offline.
Pojawiły się nowe możliwości tłumaczenia tekstu ze zdjęć zrobionych przy użyciu aplikacji Obiektyw Google, umożliwiającej wyszukanie tego, co widzimy za pośrednictwem aparatu. To łączenie przetłumaczonego tekstu z obrazem. Niedawno rozbudowano funkcję tłumaczenia tekstu z obrazów dostępnych w internecie, a model ten ma być jeszcze bardziej rozwijany.
Mapy w widoku immersyjnym i dodatkowe wskazówki
Do tej pory ulepszono już widok Map Google (Google Maps) na immersyjny oraz wprowadzono funkcję Live View ze wskazówkami dla właścicieli pojazdów elektrycznych, pieszych, rowerzystów i użytkowników transportu publicznego.
Nowy widok – immersyjny – umożliwia poznawanie z bliska miejsc, w których się znajdziemy, scalając zdjęcia ze Street View i lotnicze, do tego nakładając w czasie rzeczywistym informacje dotyczące pogody, korków czy natężenia ruchu, dojścia do budynku, sprawdzenia miejsca o różnych porach dnia, zwiedzania go czy sprawdzenia np. okolicznych sklepów, restauracji, bankomatów itd.
Google – tworząc te obrazy – korzysta z technologii sieci neuronowych (NeRF), czyli zaawansowanych funkcji AI, które przetwarzają oryginalne zdjęcia w obrazy 3D. Od dzisiaj widok immersyjny dostępny jest już w Londynie, Los Angeles, Nowym Jorku, San Francisco i Tokio. Funkcja będzie uruchamiana w kolejnych miastach - w najbliższej przyszłości: w Amsterdamie, Dublinie, Florencji i Wenecji.
Natomiast wyszukiwanie w trybie Live View będzie wykorzystywało sztuczną inteligencję i rzeczywistość rozszerzoną, dzięki czemu – po uruchomieniu funkcji i uniesieniu telefonu – można sprawdzić okoliczne obiekty. Tę opcję wdrożono już w Londynie, Los Angeles, Nowym Jorku, San Francisco i Tokio, a w kolejnych miesiącach będzie dostępna w Barcelonie, Dublinie i Madrycie. Ta opcja działa także we wnętrzach w Stanach Zjednoczonych, Zurychu i Tokio np. na lotniskach czy dworcach. W planach są kolejne miasta.
W Google Maps wprowadzono nowe funkcje dla właścicieli pojazdów elektrycznych - postojów na ładowanie dla krótszych tras; lokalizacje szybkiego ładowania czy stacje ładowania w wynikach wyszukiwania.
Wyszukiwanie obrazem
Jak podano w czasie konferencji, z Obiektywu Google (Google Lens) użytkownicy korzystają średnio ponad 10 mld razy miesięcznie. Zdjęcia mają być – wedle nowej strategii opartej na AI – źródłem informacji. Obecnie moża dowiedzieć się na co kieruje się obiektyw aparatu i co znajduje się na zdjęciu, a od teraz – będzie istniała możliwość wyszukiwania tego, co jest widoczne na ekranie telefonu.
Na Androidzie w najbliższych miesiącach ma się pojawić opcja Obiektywu - wyszukiwania na ekranie. Ma to pozwolić na wyszukiwanie zdjęć i filmów ze stron i aplikacji widocznych na ekranie, np. z czatu i rozmów wideo, bez konieczności zamykania aplikacji czy strony.
Rozwijana ma być też funkcja multiwyszukiwania, dzięki której możliwe jest wyszukiwanie jednocześnie za pomocą tekstu i obrazu. Dostępna jest na urządzeniach mobilnych we wszystkich językach i krajach, w których można korzystać z Obiektywu Google.
Dodano opcję multiwyszukiwania lokalnego, dzięki czemu – po wybraniu przykładowego zdjęcia – można wybrać „w pobliżu” i otrzymać lokalne wyniki np. sklepu z przedmiotem, którego poszukujemy (na razie dostępna tylko w USA, w kolejnych miesiącach – będzie w innych państwach). W najbliższej przyszłości ma pojawić się również multiwyszukiwanie z każdym obrazem, widocznym na stronie wyników wyszukiwania.
Sztuczna inteligencja do odkrywania kultury
W czasie spotkania managerów giganta przedstawiono również założenia w ramach Google Arts & Culture – inicjatywy, która ich zdaniem ma uchronić kulturę przed wymarciem, ale i ułatwiać jej poznanie oraz odkrywanie.
To między innymi narzędzie open source Woolaroo, które pomaga społecznościom chronić ich język i poszerzać listę używanych w nim słów (takie jak np. jidysz, kreolski luizjański, maoryski, nawat, rapanui, sycylijski, tamazight). Projekt korzysta ze wspomaganego sztuczną inteligencją rozpoznawania obrazów, aby identyfikować obiekty w kadrze i dopasowywać je do powiększającej się biblioteki słów.
Dodatkowo, wirtualnie udało się odtworzyć zaginione obrazy Klimta, a program Art Selfie umożliwia zrobienie sobie zdjęcia i porównanie go z twarzami znajdującymi się na dziełach sztuki, udostępnionymi przez muzea współpracujące z Google.
Innym rozwiązaniem jest Giga Manga - do tworzenia postaci z mangi z pomocą systemów uczących się; Living Archive – do choreografii; czy Poemportraits – do pisania wierszy z pomocą sztucznej inteligencji. Google zapowiedziało, że będzie współpracować z artystami nad nowymi formami wyrażania sztuki przy wykorzystaniu AI.
Po środowej konferencji tym bardziej można spodziewać się zaostrzonego kursu gigantów na rozwój narzędzi w oparciu o AI. Od niej bowiem w przyszłości może zależeć wiele gałęzi gospodarki, zawodów, ale i nasze przyzwyczajenia czy styl życia.
Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].
Jak odkryto blokady w pociągach Newagu?