Google kontratakuje zapowiedziami związanymi z Gemini w momencie, gdy OpenAI dwoi się i troi, by podczas “12 dni z OpenAI” codziennie zaprezentować interesujące nowości. Żadna z nich nie jest jednak tak intrygująca jak to, co Google pokazało przy okazji zaprezentowania agenta Gemini 2.0. W końcu kto z nas chce czytać opasłe tomy prac naukowych, które najpierw trzeba znaleźć, poszeregować według przydatności, wyłuskać z nich najważniejsze informacje i zanotować je tak, by potem przystępnie czerpać z nich wiedzę?
Jeżeli zmęczyliście się samym czytaniem tej listy procesów, a jednak chcecie poszerzać wiedzę, także w dziedzinach, na których się nie znacie, Gemini może mieć coś dla was. Na razie w języku angielskim, ale kto wie, czy wkrótce nie zobaczymy podobnego narzędzia korzystającego z większej liczby języków.
Deep Research idealnie pomoże w internetowych kłótniach oraz nauce
Pamiętacie jeszcze NotebookLM? To rozwiązanie, które po wrzuceniu do niego kilkunastu źródeł potrafi je zsyntezować i zaprezentować w przyjemnej dla oka lub ucha formie. W sposób bardziej zaawansowany niż konwersacyjni agenci pokroju ChatGPT potrafi ono wytłumaczyć skomplikowane zjawiska i procedury, ubierając to wszystko chociażby w formę brzmiącego niepokojąco naturalnie podcastu. Jednorazowo możemy zaaplikować do tego 300 źródeł, a wśród nich są nie tylko dokumenty, ale również strony internetowe oraz wideo na Youtube, a także własny, skopiowany tekst.
Wobec tego narzędzia Deep Research odejmuje jeszcze więcej pracy, bowiem tym razem nie musimy już gromadzić źródeł. Rozwiązanie stworzone przez inżynierów z DeepMind ma wykonywać tę pracę za nas, oczywiście w oparciu o to, co znajdzie w internecie. Proces ten będzie wymagał minimalnej ingerencji z naszej strony.
Czytaj też: Android 16 umożliwi Gemini kontrolowanie Twojego smartfona
Na początku kierujemy się do Deep Research z zagadnieniem, jakie nas interesuje. Może ono być zarówno naukowe, jak i biznesowe. Jako przykład Google podawało chociażby analizę rozmaitych lokalizacji w mieście pod kątem uruchomienia tam kolejnego oddziału swojego biznesu. Po sformułowaniu odpowiedniego pytania otrzymujemy coś, co model uznaje za plan działania. W ten sposób przybliża nam kwestie, jakich poszukiwaniem powinien się zająć i ten plan możemy edytować. Po tym, jak się na niego zgodzimy, przez kilka minut Deep Research analizuje informacje ze stron internetowych, a do tego powtarza ten sam proces po tym, gdy posiądzie więcej wiedzy na temat zagadnienia, by zwiększyć szczegółowość swoich “badań”.
Po tym, gdy rozwiązanie zdobędzie już odpowiednią wiedzę, pozostaje nam przeczytać raport, który możemy wyeksportować jako dokument Google. Oprócz informacji, nie zabraknie tam linków do źródeł, z których zaczerpnięto informację. Badacze z DeepMind z pewnością będą musieli doprecyzować, jak bardzo ten model jest odporny na dezinformację i czerpanie wiedzy ze źródeł, które człowiek z łatwością rozpozna jako niezbyt wiarygodne.
Google chce, by AI weszło do naszych żyć i przeglądarek. W Polsce na razie to nie zadziała
Deep Research to duża premiera, jeśli weźmiemy pod uwagę, że rozwiązanie udostępniono globalnie. Działa ono w oparciu o model Gemini 1.5 Pro, a więc wymaga subskrypcji Google One z dostępem do Gemini Advanced kosztującej 97,99 zł miesięcznie (razem z 2TB chmurą od Google). Co jednak w tej chwili najważniejsze – rozwiązanie to działa wyłącznie w języku angielskim i w obecnej chwili nie chce się uruchomić w Polsce. Być może to ulegnie zmianie z początkiem 2025 roku, gdy Deep Research zostanie udostępniony w aplikacji mobilnej.
Czytaj też: Gemini zyskuje nowe funkcje. Już nie będziesz tak tęsknić za Asystentem Google
Google ma chrapkę na wejście ze sztuczną inteligencją głębiej w nasze życia niż jakakolwiek inna firma. Widać to po potencjale Deep Research, który może okazać się bardzo przydatnym narzędziem, ale także po innych rozwiązaniach. Wśród nich ciekawie prezentuje się Project Mariner, który w naszej przeglądarce ma zająć się wszystkim, o co go zapytamy. Przechodzenie między stronami, gromadzenie informacji, a także dodawanie znalezisk do koszyków na stronach sklepów już wkrótce może odbywać się za pośrednictwem rozszerzenia w przeglądarce Chrome. Na razie to rozwiązanie tylko dla zaufanych testerów.
W niedalekiej przyszłości zyskamy też inteligentne oczy i uszy na naszych smartfonach. Google rozszerza działanie projektu Astra. W jego ramach powstaje model, który rozumie rozmowy, widzi świat oczami aparatów, potrafi czytać tekst oraz korzysta z wyszukiwarki Google tak, jak robiłby to człowiek. W efekcie ma powstać asystent realizujący wizję, na którą czekamy już ponad dekadę, od wprowadzenia Asystenta Google w naszych smartfonach. Projekt wychodzi z fazy zamkniętych testów i pozwala na zapisy. Szykują się ciekawe czasy dla tych, którzy dysponują wiedzą z danej dziedziny, jak i tych, którzy efektywnie korzystają z narzędzi do jej pozyskiwania. Trudno oszacować, kto wyjdzie z tego starcia mniej poobijany.