Na konferencji VB Summit 2017 w Berkeley, w Kalifornii Dean stwierdził “Każda firma, która ma dziesiątki lub setki tysięcy interakcji z klientami, ma wystarczającą skalę, by zacząć myśleć o używaniu tego typu rzeczy (uczyć maszynowo wyspecjalizowane sieci neuronowe i budować sztuczne inteligencje – dop. CHIP).” Szef projektu Google Brain, dodał, że dysponując dziesięcioma przykładami trudno maszynę czegokolwiek nauczyć, jednak gdy liczba przykładów wynosi 100 tysięcy i więcej – można już rozważać opcję budowy i/lub trenowania sztucznej inteligencji na własne potrzeby.
Jeff Dean wie co mówi, sieciami neuronowymi zajmuje się od początków lat 90-tych, aktualnie grupa badaczy z Google Brain pod jego przewodnictwem koncentruje się na szerokim spektrum problemów z zakresu sztucznej inteligencji i ogólnej informatyki. Zdaniem Deana mechanizmy uczenia głębokiego mogą być wykorzystane nie tylko w branżach technologicznych, ale praktycznie w każdej gałęzi życia społeczno-gospodarczego.
Uczenie maszynowe napotyka jednak wciąż wiele przeszkód. Sama duża ilość danych nie wystarczy. Dane stanowiące “paliwo” informacyjne dla uczonej maszyny muszą być odpowiednio przetworzone. To z kolei wymaga środków, mocy obliczeniowych, czasu, a niekiedy znacznej interwencji człowieka.
Niemniej w niektórych przynajmniej projektach udaje się uzyskać znaczne zwiększenie efektywności uczenia maszynowego, poprzez fakt, że maszyna na pewnym etapie jest zdolna uczyć się już nie na podstawie dostarczanych danych zewnętrznych i przykładów, ale na podstawie własnych doświadczeń. Dobrym przykładem takiego tworu jest system AlphaGo firmy DeepMind (własność Google’a/Alphabet), który nie poprzestał na zwycięstwie z mistrzem świata w Go, ale był dalej doskonalony poprzez naukę na własnych doświadczeniach, czyli grę z samym sobą (drugą instancją AlphaGo). | CHIP