Google представив BERT Update – найбільший прорив в роботі пошуку за останні 5 років

Google офіційно представив BERT Update – оновлення, яке компанія назвала «найбільшим проривом за останні 5 років і одним з найбільших якісних стрибків в історії пошуку».

Новий алгоритм допомагає Google краще розуміти запити на природній мові. Він охоплює 1 з 10 запитів в США англійською мовою. Згодом Google планує розширити цей підхід на більшу кількість країн і мов.

Google відкрив вихідний код технології Bidirectional Encoder Representations from Transformers або скорочено BERT, що працює на базі машинного навчання, в минулому році. Ця технологія дозволяє тренувати системи відповіді на питання.

Google застосовує моделі BERT у ранжуванні при формуванні вибраних фрагментів (featured snippets). В ранжуванні – тільки для запитів на англійській мові, для вибраних фрагментів – у більш ніж 20 країнах світу, де працює ця функція. Завдяки BERT пошуковику вдалося досягти значних поліпшень в області featured snippets на таких мовах, як корейська, португальська і хінді.

BERT допомагає Google «розуміти» більш довгі запити, сформульовані природною мовою, де велике значення мають прийменники, такі як «for» та «to».

В якості одного з прикладів Google привів запит [2019 brazil traveler to usa need a visa]. Раніше пошуковик повертав за нього результати про громадян США, які подорожують в Бразилію. Хоча насправді мова йде про відвідини Сполучених Штатів бразильськими туристами. Тепер Google правильно розуміє такі запити, враховуючи прийменник «to».

Google також застосовує BERT для покращення пошуку по всьому світу – висновки, зроблені у відношенні однієї мови, застосовуються до інших. Це допомагає повертати більш релевантні результати не тільки англійською, але й на багатьох інших мовах.

Цей прорив став результатом досліджень Google в області «трансформерів» — нейромереж нової архітектури для роботи з послідовностями, які обробляють слова в їх зв’язку з іншими словами в реченні, а не по порядку. Аналізуючи слова перед словом і після нього, моделі BERT здатні визначати його повний контекст, що особливо корисно для розуміння интента, що стоїть за пошуковим запитом.

При цьому деякі з моделей BERT настільки складні, що Google довелося використовувати нове апаратне забезпечення. Зокрема, компанія вперше почала використовувати для надання результатів пошуку новітні хмарні TPU.

Згідно Search Engine Roundtable, в кінці минулого тижня зарубіжні вебмастера почали помічати ознаки оновлення пошукового алгоритму Google. Є припущення, що ці коливання були пов’язані з запуском BERT Update.

Дмитро Запорожець — керівник SEO-відділу Profitator (Kokoc Group):

«Всі пошуковики з кожним роком все далі будуть йти від класичних алгоритмів ранжирування в бік машинного навчання. Треба сказати, що тут Яндекс сильно випередив Google і почав використовувати нейромережі для розуміння змісту запиту і зіставлення його з текстом ще в 2016 році з алгоритмом Палех і роком пізніше, ввівши алгоритм Корольов. Так що принципово нового нас нічого не чекає.

З-за оновлення алгоритму, швидше за все, стане менше релевантних відповідей, особливо по НЧ-запитів. За частотним ж запитам, ймовірно, нічого не зміниться.

Якщо згадати введення Палеха Яндексом — тоді вони говорили, що алгоритм не замінює основну формулу, а доповнює її, ще один параметр в ній. Так само і Google говорить, що BERT не замінить той же RankBrain. Десь будуть застосовуватися обидва, де-то тільки один — той, який дасть тут кращий результат».

Степан Лютий

Обожнюю технології в сучасному світі. Хоча частенько і замислююся над тим, як далеко вони нас заведуть. Не те, щоб я прям і знаюся на ядрах, пікселях, коллайдерах і інших парсеках. Просто приходжу в захват від того, що може в творчому пориві вигадати людський розум.

Вам також сподобається...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *