Штучний інтелект DeepMind навчився придумувати фотографії
Британська компанія DeepMind, в 2014 році стала частиною Google, постійно працює над вдосконаленням штучного інтелекту. У червні 2018 року її співробітники представили нейронну мережу, здатну створювати тривимірні зображення на основі двовимірних. У жовтні розробники пішли далі — вони створили нейромережа BigGAN для генерації зображень природи, тварин і предметів, які складно відрізнити від справжніх знімків.
Як і в інших проектах по створенню штучних зображень, дана технологія заснована на генеративно-змагальної нейромережі. Нагадаємо, що вона складається з двох частин: генератора і дискримінатора. Перша створює зображення, а друга оцінює їх схожість із зразками ідеального результату.
У цій роботі ми хотіли стерти грань між зображеннями, створеними ІІ і фотографіями з реального світу. Ми виявили, що для цього достатньо вже існуючих методів генерації.
Щоб навчити BigGAN створювати фотографії метеликів, собак і їжі, використовувалися різні набори зображень. Спочатку для навчання використовувалася база ImageNet, а потім — більш масштабний набір JFT-300M з 300 мільйонів зображень, розділених на 18 000 категорій.
Навчання BigGAN зайняло 2 дні. Для цього знадобилося 128 тензорних процесорів Google, розроблених спеціально для машинного навчання.
У розробці нейромережі також брали участь професори з шотландського Університету Хериота-Уатта. Подробиці про технології розписані у статті «Навчання
великомасштабної генеративно-змагальної нейромережі GAN синтезу природного зображення високої точності».
У вересні дослідники з Університету Карнегі-Мелона за допомогою генеративно-змагальних нейромереж створили систему для накладення міміки одних людей на обличчя інших.
Як подібні нейромережі можуть бути використані людством?