Reklama

Technologie

Technologiczny wyścig o sztuczną inteligencję. Google ogłasza wiele nowości w swojej wyszukiwarce

Konferencja Google ws. nowości dot. sztucznej inteligencji - live z Paryża
Konferencja Google ws. nowości dot. sztucznej inteligencji - live z Paryża
Autor. screen CyberDefence24.pl / YouTube - Google

Google oficjalnie zapowiedziało stworzenie usługi AI, którą nazwało Bard. Narzędzie ma być doskonalsze od popełniającego błędy ChatGPT i ma korzystać z informacji w czasie rzeczywistym. Jednocześnie sztuczna inteligencja zasili też produkty internetowe Microsoftu – wyszukiwarkę Bing oraz przeglądarkę Edge. Zaczyna się technologiczny wyścig.

Reklama

Jak opisywaliśmy , zapowiadana przez Google usługa Bard ma być „bardziej inteligentna” od chatbota autorstwa OpenAI, ponieważ model językowy giganta ma opierać się na informacjach z sieci aktualizowanych na bieżąco, by zapewnić „odpowiedzi wysokiej jakości”, bazujące na nowych informacjach. Obecny model ma być inną wersją LaMDA, o znacznie miejszej mocy obliczeniowej, co ma pozwolić na początek na uzyskanie większej liczby informacji zwrotnych od testerów.

Reklama

Czytaj też

Reklama

Testy usługi Bard mają polegać m.in. na połączeniu informacji zewnętrzych od testerów, z wewnętrznymi - by upewnić się, że odpowiedzi udzielane przez Bard spełniają wymogi jakości, bezpieczeństwa i rzetelności. Testy będą także opierać się na sprawdzaniu szybkości udzielanych odpowiedzi, a w najbliższym czasie swoje uwagi będą mogli zgłosić zaufani programiści.

Czytaj też

Nowości w Google Tłumacz

To jednak nie wszystko – w czasie konferencji i trasmisji live, managerowie Google’a ogłosili kolejne nowości, pokazując w jaki sposób sztuczna inteligencja będzie w najbliższych miesiącach wpływać na mechanizmy działania wyszukiwarki giganta.

Po pierwsze, firma wprowadza nowe funkcjonalności, by korzystanie z Tłumacza (Google Translate) było znacznie prostsze w przeglądarkach i na telefonach. W tym miesiącu mają zostać dodane opcje tłumaczenia kontekstowego - obejmujące opisy i rozmaite przykłady w języku docelowym. Tłumacz ma też podpowiadać odpowiednie sformułowania czy idiomy, które są stosowane w rodzimym języku, a do tej pory mogły nie być właściwie odczytywane przez wyszukiwarkę. W pierwszej kolejności ta funkcja ma być dostępna w językach: angielskim, francuskim, hiszpańskim, japońskim i niemieckim.

Google Tłumacz pojawił się w odświeżonej wersji na Adroida, a wkrótce ma być dostępny także dla użytkowników z systemem iOS. Pojawi się też opcja tłumaczenia rozmów, mowy oraz tekstu ze zdjęć zrobionych Obiektywem Google (nie tylko samego tekstu, ale też np. całego tekstu z tła). Uproszone zostanie też korzystanie z aplikacji, a przetłumaczony tekst będzie bardziej czytelny. Dodano obsługę 33 nowych pakietów językowych m.in. jidysz, korsykański, kurdyjski, luksemburski, łacina, sundajski i zulu, z których można korzystać również w trybie offline.

Pojawiły się nowe możliwości tłumaczenia tekstu ze zdjęć zrobionych przy użyciu aplikacji Obiektyw Google, umożliwiającej wyszukanie tego, co widzimy za pośrednictwem aparatu. To łączenie przetłumaczonego tekstu z obrazem. Niedawno rozbudowano funkcję tłumaczenia tekstu z obrazów dostępnych w internecie, a model ten ma być jeszcze bardziej rozwijany.

Czytaj też

Mapy w widoku immersyjnym i dodatkowe wskazówki

Do tej pory ulepszono już widok Map Google (Google Maps) na immersyjny oraz wprowadzono funkcję Live View ze wskazówkami dla właścicieli pojazdów elektrycznych, pieszych, rowerzystów i użytkowników transportu publicznego.

Nowy widok – immersyjny – umożliwia poznawanie z bliska miejsc, w których się znajdziemy, scalając zdjęcia ze Street View i lotnicze, do tego nakładając w czasie rzeczywistym informacje dotyczące pogody, korków czy natężenia ruchu, dojścia do budynku, sprawdzenia miejsca o różnych porach dnia, zwiedzania go czy sprawdzenia np. okolicznych sklepów, restauracji, bankomatów itd.

Google – tworząc te obrazy – korzysta z technologii sieci neuronowych (NeRF), czyli zaawansowanych funkcji AI, które przetwarzają oryginalne zdjęcia w obrazy 3D. Od dzisiaj widok immersyjny dostępny jest już w Londynie, Los Angeles, Nowym Jorku, San Francisco i Tokio. Funkcja będzie uruchamiana w kolejnych miastach - w najbliższej przyszłości: w Amsterdamie, Dublinie, Florencji i Wenecji.

Natomiast wyszukiwanie w trybie Live View będzie wykorzystywało sztuczną inteligencję i rzeczywistość rozszerzoną, dzięki czemu – po uruchomieniu funkcji i uniesieniu telefonu – można sprawdzić okoliczne obiekty. Tę opcję wdrożono już w Londynie, Los Angeles, Nowym Jorku, San Francisco i Tokio, a w kolejnych miesiącach będzie dostępna w Barcelonie, Dublinie i Madrycie. Ta opcja działa także we wnętrzach w Stanach Zjednoczonych, Zurychu i Tokio np. na lotniskach czy dworcach. W planach są kolejne miasta.

W Google Maps wprowadzono nowe funkcje dla właścicieli pojazdów elektrycznych - postojów na ładowanie dla krótszych tras; lokalizacje szybkiego ładowania czy stacje ładowania w wynikach wyszukiwania.

Czytaj też

Wyszukiwanie obrazem

Jak podano w czasie konferencji, z Obiektywu Google (Google Lens) użytkownicy korzystają średnio ponad 10 mld razy miesięcznie. Zdjęcia mają być – wedle nowej strategii opartej na AI – źródłem informacji. Obecnie moża dowiedzieć się na co kieruje się obiektyw aparatu i co znajduje się na zdjęciu, a od teraz – będzie istniała możliwość wyszukiwania tego, co jest widoczne na ekranie telefonu.

Na Androidzie w najbliższych miesiącach ma się pojawić opcja Obiektywu - wyszukiwania na ekranie. Ma to pozwolić na wyszukiwanie zdjęć i filmów ze stron i aplikacji widocznych na ekranie, np. z czatu i rozmów wideo, bez konieczności zamykania aplikacji czy strony.

Rozwijana ma być też funkcja multiwyszukiwania, dzięki której możliwe jest wyszukiwanie jednocześnie za pomocą tekstu i obrazu. Dostępna jest na urządzeniach mobilnych we wszystkich językach i krajach, w których można korzystać z Obiektywu Google.

Dodano opcję multiwyszukiwania lokalnego, dzięki czemu – po wybraniu przykładowego zdjęcia – można wybrać „w pobliżu” i otrzymać lokalne wyniki np. sklepu z przedmiotem, którego poszukujemy (na razie dostępna tylko w USA, w kolejnych miesiącach – będzie w innych państwach). W najbliższej przyszłości ma pojawić się również multiwyszukiwanie z każdym obrazem, widocznym na stronie wyników wyszukiwania.

Czytaj też

Sztuczna inteligencja do odkrywania kultury

W czasie spotkania managerów giganta przedstawiono również założenia w ramach Google Arts & Culture – inicjatywy, która ich zdaniem ma uchronić kulturę przed wymarciem, ale i ułatwiać jej poznanie oraz odkrywanie.

To między innymi narzędzie open source Woolaroo, które pomaga społecznościom chronić ich język i poszerzać listę używanych w nim słów (takie jak np. jidysz, kreolski luizjański, maoryski, nawat, rapanui, sycylijski, tamazight). Projekt korzysta ze wspomaganego sztuczną inteligencją rozpoznawania obrazów, aby identyfikować obiekty w kadrze i dopasowywać je do powiększającej się biblioteki słów.

Dodatkowo, wirtualnie udało się odtworzyć zaginione obrazy Klimta, a program Art Selfie umożliwia zrobienie sobie zdjęcia i porównanie go z twarzami znajdującymi się na dziełach sztuki, udostępnionymi przez muzea współpracujące z Google.

Innym rozwiązaniem jest Giga Manga - do tworzenia postaci z mangi z pomocą systemów uczących się; Living Archive – do choreografii; czy Poemportraits – do pisania wierszy z pomocą sztucznej inteligencji. Google zapowiedziało, że będzie współpracować z artystami nad nowymi formami wyrażania sztuki przy wykorzystaniu AI.

Po środowej konferencji tym bardziej można spodziewać się zaostrzonego kursu gigantów na rozwój narzędzi w oparciu o AI. Od niej bowiem w przyszłości może zależeć wiele gałęzi gospodarki, zawodów, ale i nasze przyzwyczajenia czy styl życia.

Serwis CyberDefence24.pl otrzymał tytuł #DigitalEUAmbassador (Ambasadora polityki cyfrowej UE). Jeśli są sprawy, które Was nurtują; pytania, na które nie znacie odpowiedzi; tematy, o których trzeba napisać – zapraszamy do kontaktu. Piszcie do nas na: [email protected].

Reklama
Reklama

Komentarze