ИИ Nvidia делает фейковые видео, которые невозможно отличить от реальных

Автор: Евгений Щербань, 06 декабря 2017, 12:01
ИИ Nvidia делает фейковые видео, которые невозможно отличить от реальных

В погоне за крутым искусственным интеллектом (ИИ) Nvidia потихоньку открывает ящик пандоры. На днях они представили неконтролируемый метод машинного обучения, который может кардинально изменить содержание видеоконтента, которое вы ему скормили.

Что он умеет

Много чего. Например, поменять цвет кожи человека (или военную форму), погоду на улице или время суток, дорисовать машину на дороге или убрать пятна с леопарда. И это всего несколько демо-роликов от Nvidia.

Как это работает

Предыдущие методы машинного обучения такого ИИ требовали больших объемов данных для сравнения. Из-за больших объемов данных было проблематично научить ИИ видеть паттерны и закономерности. Поэтому они попытались научить ИИ видеть картинку как раскраску, каждый элемент которой  это какая-то типичная задача, вроде заливки цветом, смены цветов, увеличения разрешения, замыливания картинки и т. д.

 

Почему это круто. И почему не круто

С одной стороны это открывает сумасшедшие возможности для обработки видео. С другой стороны это пугает людей. Например, ИИ от Nvidia уже умеет делать фейковые видео, которые не натренированный человек не распознает в 99% случаев. А канадский стартап Lyrebird не так давно научил ИИ говорить чужим голосов. Владея такими инструментами любой человек с фантазией и упорством сможет создавать правдоподобные события, которых не было  младенцев на крестах, вооруженные конфликты, инопланетян и аншлаги на концерте Тимати.

Источник: The Next Web

Подписывайтесь на наш нескучный канал в Telegram, чтобы ничего не пропустить.

Поделиться