“За 15 лет работы над поиском в Google я узнал одну вещь, что любопытство людей — бесконечно. Мы видим миллиарды запросов ежедневно, и 15 процентов этих запросов — это те, которые мы не видели никогда, поэтому мы создали возможность отображения результатов для запросов, которые мы не можем предсказать”, — написал Найак.
“Благодаря последним достижениям нашей исследовательской группы в области изучения языка, которые стали возможны благодаря машинному обучению, мы значительно улучшили понимание запросов, что является самым большим скачком вперед за последние пять лет и одним из крупнейших прыжков в истории поиска”, — добавил он.
ЧИТАЙТЕ ТАКЖЕ: Билл Гейтс считает главной своей ошибкой, что позволил корпорации Google приобрести Android
Он также добавил, что в прошлом году компания внедрила технологию нейросетевой обработки естественного языка (NLP) с открытым исходным кодом под названием “двунаправленное кодирующее устройство отображения преобразований”, или, как ее сокращенно называют в компании — BERT (Bidirectional Encoder Representations from Transformers).
“Эта технология позволяет любому человеку научить свою собственную поисковую систему отвечать на запросы”, — пишет вице-президент Google.
“Этот прорыв стал результатом исследований компании Google в области трансформаторов (устройств для получения и преобразования информации — ред): моделей, которые обрабатывают слова по отношению ко всем остальным слов в одном предложении, а не по одному. Поэтому модели BERT могут рассматривать весь контекст слова, рассматривая слова до и после него, что особенно полезно для понимания смысла поисковых запросов”, — пояснили в компании.
ЧИТАЙТЕ ТАКЖЕ: Пентагон предоставил Microsoft контракт на 10 млрд долларов
В компании отметили, что этот алгоритм для обработки информации пока еще только внедряется, поэтому сначала он будет работать, в основном, с запросами на английском языке, а уже потом переходить на другие.
“Мы также применяем BERT, чтобы сделать поиск лучше для людей по всему миру. Мощной характеристикой этих систем является то, что они могут принимать „уроки“ с одного языка и применять их в других. Таким образом, мы можем взять модели, которые внедряются при изучении (алгоритмом BERT — ред) английского языка (язык, на котором существует подавляющее большинство веб-контента), и применить эти модели к другим языкам. Это помогает нам лучше отвечать релевантными результатами многих языках”, — рассказал Найак, и отметил, что уже можно увидеть прогресс в таких языках как корейский, хинди и португальский.
Пока неизвестно, внедрен ли этот алгоритм BERT в украинский или русский языки, однако отмечается, что “BERT внедрен в двух десятках стран”. По данным The Verge — Google опубликует список стран позже.
ЧИТАЙТЕ ТАКЖЕ: Facebook запускает отдельную вкладку для новостей
Как сообщал УНН, научный журнал Nature опубликовал статью, которая подтверждает создание Google мощного в мире квантового компьютера.