Думати як людина: що буде, якщо наділити машину теорією свідомості

Минулого місяця команда, що складається з  ШІ-гравців зо само навчаються, зазнала феєричної поразки проти професійних кіберспортсменів. Шоу-матч, що проходив у рамках чемпіонату світу з гри Dota 2 The International показав, що командне стратегічне мислення поки як і раніше дозволяє людині брати верх над машиною.

Учасники Штучного інтелекту являли собою кілька алгоритмів, розроблених компанією OpenAI, одним із засновників якої є Ілон Маск. Колектив цифрових гравців, який отримав назву OpenAI Five, навчався грі в Dota 2 самостійно, методом проб і помилок, змагаючись між собою.

На відміну від тих же шахів або логічної настільної гри го, популярна і швидко розвинена багатокористувацька гра Dota 2 розглядається куди більш серйозним полем для перевірки штучного інтелекту на міцність. Загальна складність гри – це лише один з факторів. Тут недостатньо просто дуже швидко клікати мишкою і роздавати команди персонажам, яким ти керуєш. Для перемоги необхідно мати інтуїцію і розуміння того, що слід чекати від суперника в наступний момент часу, а також адекватно діяти відповідно до цього набору знань, щоб спільними зусиллями прийти до спільної мети — перемоги. У комп’ютера цього набору можливостей немає.

«Наступний великий крок у розвитку ШІ – взаємодія», — говорить доктор Джун Ванг з Університетського коледжу Лондона.

На сьогоднішній момент навіть самий видатний комп’ютерний алгоритм глибокого навчання не має стратегічного мислення, необхідного для розуміння цілей із завдань свого опонента, будь це інший ШІ або людина.

На думку Ванг, для того щоб ШІ зміг досягти успіху, йому необхідно володіти глибоким комунікативним навиком, який бере свій початок з найважливішою когнітивної особливості людини – наявності розуму.

Модель психічного стану як симуляція

До чотирьох років діти, як правило, починають розуміти одну фундаментальну соціальну особливість: їх розум не такий, як розум інших. Вони починають розуміти, що у кожного є те, у що він вірить, свої бажання, емоції і наміри. І, найголовніше, уявляючи себе на місці інших, вони можуть почати передбачати подальшу поведінку цих людей і пояснювати їх. У деякому роді їх мозок починає створювати всередині себе численні симуляції самого себе, підставляти себе на місце інших людей і поміщати всередину іншого середовища.

Читайте також  Пентагон вкладає 2 мільярди доларів у впровадження воєнного штучного інтелекту

Модель психічного стану має важливе значення в пізнанні себе як людини, а також відіграє важливу роль в соціальній взаємодії. Розуміння інших — ключ до ефективної комунікації та досягнення спільних цілей. Тим не менше ця здатність також може бути і рушійною силою помилкових переконань – ідей, які відводять нас від об’єктивної істини. Як тільки порушується здатність використання моделі психічного стану, наприклад, таке відбувається при аутизмі, то природні «людські» навички, такі як можливість пояснення і уяви теж погіршуються.

На думку доктора Алана Уинфилда, професора робоэтики з Університету Західної Англії модель психічного стану або «теорія свідомості» є ключовою особливістю, яка одного разу дозволить машині «розуміти» людей, речі і інших роботів.

«Ідея впровадження симуляції всередину робота – це насправді чудова можливість наділити його здатністю передбачати майбутнє», — говорить Вінфілд.

Замість методів машинного навчання, в якому множинні шари нейронних мереж витягують окремі фрагменти інформації і «вивчають» величезні бази даних, Уїнстон пропонує використовувати інший підхід. Замість того, щоб покладатися на навчання, Уїнстон пропонує заздалегідь програмувати ІІ з внутрішньою моделлю самого себе, а також оточення, яка дозволить відповісти на прості питання «що, якщо?».

Наприклад, уявімо, що по вузькому коридору рухаються два робота, їх ІЇ можуть провести симуляцію результатів подальших дій, які запобігають їх зіткненню: повернути наліво, направо або продовжити рух прямо. Ця внутрішня модель по суті буде діяти як «механізм наслідків», виступаючи в ролі свого роду «здорового глузду», який допоможе направити ШІ на подальші правильні дії шляхом прогнозування подальшого розвитку ситуації.

У дослідженні, опублікованому раніше в цьому році Уїнстон продемонстрував прототип робота, здатного досягти таких результатів. Передбачаючи поведінку оточуючих, робот успішно пройшов коридором без зіткнень. Насправді в цьому немає нічого дивного, зазначає автор, але у «уважного» робота, що використовує модельований підхід до вирішення завдання, проходження коридору зайняло на 50 відсотків більше часу. Тим не менше Уїнстон довів, що його метод внутрішньої симуляції працює: «це дуже потужна і цікава початкова точка в розвитку теорії штучного розуму», підсумував учений.

Читайте також  «Квантова атмосфера» може розкрити секрети речовини

Уїнстон сподівається, що врешті-решт ІІ отримає здатність описувати, подумки відтворювати ситуації. Внутрішня модель самого себе та інших дозволить такому ШІ проводити моделювання різних сценаріїв, і, що більш важливо, визначати конкретні цілі та завдання при кожному з них.

Це істотно відрізняється від алгоритмів глибинного навчання, які в принципі не здатні пояснити чому вони прийшли до того або іншого висновку при вирішенні задачі. Модель «чорного ящика» при використанні глибинного навчання – це насправді справжня проблема, що стоїть на шляху довіри до таких систем. Особливо гострою ця проблема може стати, наприклад, при розробці роботів-доглядальниць для лікарень або для літніх людей.

ШІ озброєний моделлю психічного стану міг би ставити себе на місце своїх господарів і правильно розуміти те, що від нього хочуть. Потім він міг би визначити відповідні рішення і, пояснивши ці рішення людині, вже виконував би покладену на нього завдання. Чим менше невизначеність у рішеннях, тим більше було б до таких роботів довіри.

Модель психічного стану нейронної мережі

Компанія DeepMind використовує інший підхід. Замість того, щоб заздалегідь програмувати алгоритм механізму наслідків, вони розробили кілька нейронних мереж, які демонструють подібність моделі коллективноого психологічного поведінки.

ШІ-алгоритм «ToMnet може навчатися дій, спостерігаючи за іншими нейтронними мережами. Сам ToMNet являє собою колектив з трьох нейронних мереж: перша спирається на особливості вибору інших ШІ згідно з їх останнім діям. Друга формує загальний концепт поточного настрою – їх переконань і намірів в певний момент часу. Колективний результат роботи двох нейромереж надходить третьою, яка передбачає подальші дії ШІ, грунтуючись на ситуації. Як і у випадку з глибинним навчанням, ToMnet стає ефективніше з набором досвіду, стежачи за іншими.

В одному з експериментів ToMnet «спостерігав за тим, як три ШІ-агента маневрують в цифровий кімнаті, збираючи різнокольорові коробки. Кожен з цих ШІ володів своєю особливістю: один був «сліпим» — не міг визначити форму і розміщення в кімнаті. Інший був «склеротиком»: він не міг запам’ятати свої останні кроки. Третій міг бачити і запам’ятовувати.

Читайте також  Користувачі почали отримувати оновлений сервіс Android Auto з новим інтерфейсом і режимом Dark Mode

Після навчання ToMnet почав прогнозувати переваги кожного ІІ, спостерігаючи за його діями. Наприклад, «сліпий» постійно рухався тільки уздовж стін. ToMnet це запам’ятав. Алгоритм також зміг правильно передбачати подальшу поведінку ШІ і, що більш важливо, розуміти те, коли він стикався з помилковим уявленням оточення.

В одному з тестів команда вчених запрограмувала один ШІ на «короткозорість» і змінила планування кімнати. Агенти з нормальним зором швидко адаптувалися до нового розташування, проте «короткозорий» продовжував слідувати своїм початковим маршрутами, помилково вважаючи, що він як і раніше знаходиться в старому оточенні. ToMnet швидко відзначив цю особливість і точно передбачив поведінку агента, поставивши себе на його місце.

На думку доктора Елісон Гопник, фахівця в галузі вікової психології Каліфорнійський університет в Берклі, не брала участі в цих дослідженнях, але ознакомившись з висновками, ці результати дійсно показують, що нейронні мережі мають дивовижну здатність освоювати різні навички самостійно, через спостереження за іншими. У той же час на думку фахівця, ще дуже рано говорити про те, що ці ШІ розвинули штучну модель психічного стану.

На думку доктора Джоша Тенебаума з Массачусетського технологічного інституту, також не брав участі в дослідженні, «розуміння» ToMnet міцно пов’язане з контекстом середовища навчання – тієї ж кімнатою і специфічними ІІ-агентами, чия задача зводилася до збирання коробок. Ця скутість в певних рамках робить ToMnet менш ефективним в передбаченні поведінки в радикально нових середовищах, на відміну від тих же дітей, які можуть адаптуватися до нових ситуацій. Алгоритм, на думку вченого, не впорається з моделюванням дій зовсім іншого ІІ або людини.

У будь-якому випадку робота Вінстона і компанії DeepMind демонструє, що комп’ютери починають проявляти зачатки «розуміння» один одного, навіть якщо це розуміння поки лише рудиментарно. І по мірі того, як вони будуть продовжувати поліпшувати цей навик, все краще і краще розуміючи один одного, настане час, коли машини зможуть розуміти всю складність і заплутаність нашої власної свідомості.

Як ви думаєте, чи зможуть машини знайти когнітивні людські навички?

Степан Лютий

Обожнюю технології в сучасному світі. Хоча частенько і замислююся над тим, як далеко вони нас заведуть. Не те, щоб я прям і знаюся на ядрах, пікселях, коллайдерах і інших парсеках. Просто приходжу в захват від того, що може в творчому пориві вигадати людський розум.

You may also like...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *