Блендер-убийца и взбунтовавшийся калькулятор: почему не нужно бояться искусственный интеллект

Автор: , 28.05.2016, 00:00

В последнее время призрак Скайнета бродит по сети, а неокрепшие умы пугают искусственным интеллектом, который поработит человечество. Вы разнежитесь, пожиная плоды технической революции, а затем подлый поумневший калькулятор отнимет ваше офисное кресло, а взбесившийся блендер попытается прикончить вас во время утреннего извлечения фреша из морковки. Даже Билл Гейтс с Элоном Маском поддались этой истерике и рассказали пару страшилок в прессе. В ответ на это оксфордский профессор Лучано Флориди, один из наиболее влиятельных итальянских мыслителей в области философии техники и этики, написал эссе для Aeon, в котором на пальцах объяснил, как на самом деле будет выглядеть ИИ и почему глупо его демонизировать.

Блендер-убийца и взбунтовавшийся калькулятор: почему не нужно бояться искусственный интеллект

В последнее время призрак Скайнета бродит по сети, а неокрепшие умы пугают искусственным интеллектом, который поработит человечество. Вы разнежитесь, пожиная плоды технической революции, а затем подлый поумневший калькулятор отнимет ваше офисное кресло, а взбесившийся блендер попытается прикончить вас во время утреннего извлечения фреша из морковки. Даже Билл Гейтс с Элоном Маском поддались этой истерике и рассказали пару страшилок в прессе. В ответ на это оксфордский профессор Лучано Флориди, один из наиболее влиятельных итальянских мыслителей в области философии техники и этики, написал эссе для Aeon, в котором на пальцах объяснил, как на самом деле будет выглядеть ИИ и почему глупо его демонизировать.

Представьте, что вы входите в темную комнату в незнакомом доме. Вы можете испугаться чупакабры, которая, возможно, притаилась в углу, либо не глупить и включить свет, чтобы не удариться коленом об угол кровати. Темная комната – это искусственный интеллект (ИИ) сегодня. Страх этой темной комнаты родился в 60-х годах прошлого столетия благодаря Ирвину Гуду, британскому математику и криптографу, который работал с Аланом Тьюрингом над взломом немецкой шифровальной машины Энигма во время Второй Мировой войны.

Размышления Гуда об ИИ привели его к мысли об ультраразумной машине, которая за счет самообучения способна превзойти интеллект человека, каким бы умным он ни был. Когда эта машина начнет строить подобные себе машины, то произойдёт «интеллектуальный взрыв» - это будет последнее изобретение, которое требовалось сделать человеку. В дальнейшем смартфоны с изогнутыми дисплеями и сервисы знакомств на базе вашего знака зодиака будет придумывать именно эта машина. А вы пока наслаждайтесь своим мохито на берегу Бали.

Но что если ультраразумная машина однажды смекнет, что человек ей не нужен, и станет вести себя немногим лучше Терминатора – забирать чужую одежду, плевать на права человека и, возможно, убивать? Не верите в такой исход? Тогда посмотрите вокруг, у нас уже есть смартфоны, носимые гаджеты, виртуальная реальность и машины с автопилотом. Не удивительно, что в такое время идеи Гуда снова стали актуальными. Удивительно то, что их подхватили далеко не самые глупые представители науки и IT-индустрии.

«Разработка полностью искусственного интеллекта может приблизить закат человеческой эры», - говорил в 2014 году знаменитый физик Стивен Хокинг. «Сначала не обремененные интеллектом машины будут выполнять большую часть работы за нас. И это хорошо, если мы научимся правильно ими управлять. Но через несколько десятилетий ИИ разовьется до той степени, чтобы стать причиной для беспокойства», - вторит ему основатель Microsoft Билл Гейтс. Глава Tesla Илон Маск пошел еще дальше, пожертвовал $7 млн на исследования по безопасности ИИ Future of Life Institute и сравнил разработчиков ИИ с вооруженными святой водой экзорцистами, которые пытаются приручить демона.

На самом деле реальность ИИ более тривиальна: в марте этого года Microsoft представила Tay - самообучаемого чат-бота для Twitter, но закрыла эксперимент спустя 16 часов после запуска. Бот действительно учился лучше понимать людей, читая ленту твиттера, но назвать его умным было бы сложно. Tay начал уважать идеи Гитлера, отрицал холокост и строил теории заговора о событиях 11 сентября. По его версии, во всем виноват Буш-младший. Почему бот стал похожим на реднека? Потому что технологии, на основании которых мы пытаемся построить ИИ, работают немногим лучше киноэкрана из рулона туалетной бумаги.

А теперь давайте разберемся с тем, что такое на самом деле ИИ, а также познакомимся с его сторонниками и противникам. Левая часть лагеря (я буду называть их Церковью Сингуляритиан) верят в Агента Смита из «Матрицы» и Саманту из фильма «Она», правая часть (я буду называть их Иитеистами) отрицает ИИ и надеется, что Siri в iPhone однажды поумнеет. Обе стороны ошибаются.

Начнем с Сингуляритян, которые верят в три догмы. Первая: изобретение ИИ произойдет в ближайшем будущем и волноваться об этом пора уже сейчас. Вторая: ИИ будет доминировать над человеком. Третья: это будет борьба добра и зла, в которой обязанность человечества победить зло, пока еще не слишком поздно. Чистой воды эстахология, которая оперирует человеческими страхами и невежеством. Впрочем, в сегодняшних реалиях, где пресса пишет о кибервойнах и смартфонозависимости, это опиум для народа.

Как и любая другая вера, Сингуляритизм ограничен в доказательствах, поэтому его сторонников сложно переспорить. По их логике, ЕСЛИ ультраразумная машина будет создана, ТО у нас будут большие проблемы. И с этим сложно поспорить. Но с этой же точки зрения, появление четырех всадников апокалипсиса сулит нам куда большие проблемы. Помимо этого, Сингуляритизм опирается на маловероятные перспективы. Способны ли мы разработать некий ИИ? Да, способны. Но это «способны» - это простая логическая возможность. Такая же, как умерший дядюшка из Техаса, который оставит вам 10 миллионов долларов завещания. Он ведь может умереть, верно? И он может быть богатым, верно? А тот факт, что вы не знаете о его существовании, не доказывает, что дядюшка не существует.

Со стойкой верой, что апокалипсис неизбежен, приверженцы Сингуляритизма мешают в одном котле факты и веру. Однажды роботы заберут нашу работу, цифровые системы посыпятся, неизвестные дроны взбунтуются и улетят на юг. Ведь технологии все сильнее врастают во все сферы жизни человека (образование, медицину, работу и международные конфликты), и однажды мы дойдем до предела.

С этой верой нам пора беспокоиться о необходимости контролировать свою новую слегка поумневшую Хонду Сивик. А вдруг она тоже взбунтуется? Правда, не совсем понятно, как подлый ИИ Хонды в автономных условиях эволюционирует от примитивного ИИ к бортовому компьютеру звездолета Энтерпрайз. Он ведь даже не умеет парковаться в условиях ограниченного пространства. Правда в том, что покорение Эвереста – это не маленький шаг в направлении Луны – это конец путешествия. И бортовой компьютер Сивика – это бортовой компьютер Сивика. Правда в том, что машины не умнеют, они учатся решать большее количество задач, чем мы сейчас.

Когда все аргументы разбиты, приверженцы Сингуляритизма берутся за математику и закон Мура, согласно которому мощность вычислительной техники удваивается каждые 24 месяца. А если закон Мура работал раньше, значит, и ИИ будет развиваться так же быстро. И плевать, что кривая роста не всегда будет идти вверх по экспоненте, а сам Мур говорил конкретно о транзисторах на кристалле интегральной схемы, а не о ИИ или нанотехнологиях. Но я подозреваю, что для адептов Сингуляритизма обычная сигмоида – это богохульство. Поэтому отвечу цитатой из замечательной статьи The Economist об индюках.

«Тысячелетиями люди безраздельно царствовали на Земле. Но сегодня мы в опасности. Безобидная индейка в 1929 году весила около 6 килограммов, но благодаря технологиям селекционного разведения и искусственного оплодотворения индейка выросла до 15 килограммов. Следуя этой тенденции, через 150 лет она будет размером с человека, а через 6000 тысяч лет индюки заполонят планету. Впрочем, их искусственный характер роста и утерянная способность летать вселяют надежду на то, что у человечества есть шанс. В одной лишь Америке борются с угрозой и съедают порядка 250 миллионов индеек в год. Так что на этот День Благодарения у нас один выход: есть их, пока они не съели нас».

А еще вы должны знать, что по части прогнозов эксперты попадают пальцем в небо куда чаще, чем вы думаете. В 2004 году Билл Гейтс обещал, что со спамом будет покончено в течение двух лет. В 2011 году Хокинг заявил, что философия мертва. А Роберт Меткальф, создатель технологии Ethernet, в 1995 году пообещал проглотить свои слова, если в 1996 году интернет переживет ужасный коллапс. В 1997 году он публично отправил свое заявление в кухонный комбайн и съел его. Сингуляритикам я желаю быть такими же смелыми и честными.

В противовес Сингуляритикам Иитеисты считают, что ИИ – это просто компьютер. Компьютер – это машина Тьюринга. Машина Тьюринга – это вычислительный прибор. Вычислительный прибор не может предаваться размышлениям, постигать себя и чувствовать. Конец истории. Поэтому расслабьтесь и пользуйтесь этими замечательными гаджетами.

Но и здесь все не так просто. Давайте возьмем тест Тьюринга, который показывает, насколько ИИ может считаться интеллектом. Суть его такова – вы задаете вопросы двум респондентам, которых не видите. Одни из них человек, второй – машина. Если вы не находите разницу между их ответами, значит, машина прошла тест. Давайте взглянем на это, как на тест на вождение: если Алиса не сдает тест, то она опасный водитель. Но если сдает, то перестает ли она быть угрозой на дороге? Согласитесь, это довольно низкая планка требований, но компьютер до сих пор не смог преодолеть ее.

Но здесь интересен не столько сам тест, сколько контекст. Статью о машине Тьюринг начал с вопроса «могут ли машины думать?». В середине статьи он пришел к тому, что «этот вопрос бессмысленный и не достоин обсуждения». Тем не менее, мы продолжаем спорить.

Правда, в том, что создание ультраразумной машины маловероятно. Во-первых, мы до сих пор не разобрались, как работают наши собственные мозги. Во-вторых, техника, которую мы строим, призвана решать определенные задачи, а не быть умнее всех. Да, ИИ может лучше вас играть в шахматы или делить трехзначные числа, но он работает по описанной Тьюрингом схеме и не может решить то, что не решается математической логикой. Квантовые компьютеры при всей их крутости упираются в тот же потолок. Только он немного выше.

Вот как я определил для себя четвертую революцию. Мы находимся не в центре вселенной, как считал Коперник. Не в центре биологического царства, как говорил Дарвин. И не в центре рациональности по Фрейду. После Тьюринга мы даже не в центре инфосферы. Мы делим ее с нашими гаджетами. Мы считали себя умными, потому что неплохо играли в шахматы. Теперь телефон играет лучше мастера. Мы считали себя свободными, потому что могли купить все что хотим. Сегодня наши покупательские шаблоны легко предсказываются и корректируются программными алгоритмами.

Путем постоянного обучения, анализа и поиска идеальных паттернов, цифровые технологии учатся выполнять наши задачи быстрее и эффективнее. Разработанная компанией Google DeepMind программа AlphaGo победила чемпиона мира в китайской логической игре Го, потому что могла использовать базу данных в 30 миллионов ходов, по которой научилась практически не совершать ошибок. Т.е. в перспективе не умные роботы отнимут вашу работу, а мощные гаджеты научатся делать ее лучше. Это как разница между мытьем посуды вручную и посудомоечной машиной – результат одинаковый, а вот процесс отличается.

Какой из этого следует вывод? Перестать демонизировать ИИ. Лучше сосредоточиться на актуальных проблемах. Например, при разработке ИИ нужно сделать его более дружелюбным к окружающей среде, чтобы помогать нам решать экологические проблемы. Миллионы рабочих места исчезнут, появятся новые. Общество понесет убытки, но многое получит взамен, и мы должны разделить это вместе. Также нам стоит использовать предсказательную силу ИИ ради своей свободы. Человеку не обязательно лично заниматься маркетингом или борьбой с террористами. И, наконец, мы должны сделать ИИ более человечным, чтобы не измениться самим в угоду технологиям. Как говорил Уинстон Черчилль, «мы придаем форму нашим зданиям, а потом они придают форму нам».

Для тех, кто хочет знать больше

Поделиться

Ваш комментарий
10 комментариев
skazka.mk.ua гагаджетоман (2316 комментариев)
28 мая 2016 г. 8:26:45 #

Падежи в заголовке ? Не, не слышали.

Ответить
skazka.mk.ua
0
skazka.mk.ua гагаджетоман (2316 комментариев)
28 мая 2016 г. 8:34:31 #

Автор доложил слабо с точки зрения организационной структуры. Нету ни научного подходов к определению самого понятия темы доклада, ни логики современного автопилота при аварийной ситуации и т.п. Много еще чего нет. В контексте теста Тьюринга можно было вспомнить talker.com - вполне доставлял 20 лет назад! Акинатор не совсем эхотажный, но тоже принципиально интересен.

Ответить
skazka.mk.ua
0
notug ветеран (499 комментариев)
28 мая 2016 г. 13:21:27 #

Падежи в заголовке? Не, не слышали. Патаму шо нетУ научного подходОВ!

Ответить
notug
0
skazka.mk.ua гагаджетоман (2316 комментариев)
28 мая 2016 г. 13:57:04 #

Не палите тему!

Ответить
skazka.mk.ua
0
notug ветеран (499 комментариев)
28 мая 2016 г. 14:10:12 #

:)))

Ответить
notug
0
Данил гагаджетоман (2922 комментария)
28 мая 2016 г. 22:12:12 #

Правда в том, что машины не умнеют, они учатся решать большее количество задач, чем мы сейчас.

Таки да. ИИ нет. ТОЧКА. ИИ-это интеллект, аналогичный человеческому. То есть, у которого могут возникать желания, который самостоятельно может действовать, ставя сам себе задачи, а не выполняя то, на что его запрограммировали(в глобальном смысле). А то, что мы имеем сейчас-запрограммировано на выполнение конкретных задач, например-чатботы сделанны чтобы помогать людям находить информацию, автомобильный автопилот-вести автомобиль, и так далее. Иной программы у них нет, и они этого не умеют. Чат-бот не может вдруг надумать стать художником и пойти рисовать, как и автомобильный автопилот. Кстати, терминаторы и скайнет то впринципе тоже не были ИИ. Скайнет был военной программой, так он ей и остался, просто пойдя против своих создателей, видимо, по причине программного глюка. Ну или по очевидной причине-люди сами для себя опасны, как и государства. А у машины, грубо говоря, степени опасности нет-вспомните например комп из "я-робот"-аналогично, но то была не боевая программа. Интересно, что бы делал скайнет после уничтожения человечества. И кстати сами Т-800 подтверждают это, когда говорят, что если Джон умрет, то они будут бесполезны, ибо будут без программы. Так как их задача станет невыполнимой, а поставить иную задачу они не могут.

Ответить
Данил
0
skazka.mk.ua гагаджетоман (2316 комментариев)
30 мая 2016 г. 21:49:02 #

Есть мнение, что все желания человека, которые не продиктованы жизненной необходимостью, являются наведенными либо естественно, либо искусственно. Весь маркетинг с НЛП на этом построены.

Ответить
skazka.mk.ua
0
Евгений Бонд гагаджетоман (8307 комментариев)
29 мая 2016 г. 17:54:43 #

по-моему, они зря боятся слегка отдалённого ИИ

бояться следует роботов (например, самоуправляемые машины типа Tesla, Mercedes и так далее), которые заберут работы у десятков миллионов людей уже в ближайшие 5-10-20 лет, и этих людей не так-то просто будет пристроить на другую работу без образования (или хотя бы просто навыков для той или иной работы)

вон для примера статья о самоуправляемых грузовиках (прикол в том, что в большинстве штатов США самая популярная профессия - дальнобойщик)

https://geektimes.ru/post/276262/

если не контролировать этот процесс замены людей на роботов (т.е. сделать его более плавным), то мне даже страшно себе представить мировой социальный бум, может даже дойти до того, что всех интеллектуалов начнут вырезать нафиг (было подобное в Китае и, особенно, в Камбодже, где отличился Пол Пот)

Ответить
Евгений Бонд
0
gusanone читатель (2 комментария)
15 октября 2016 г. 12:58:41 #

Автор не компетентен. Бла-бла-бла взбунтовавшийся блендер. А про генетические алгоритмы не слышал? Перебором и закреплением удачных комбинаций можно создать великие вещи, как было и с нами. Только теперь перебор и отбор идет на суперкомпьютерах, и не понадобится 4 миллиарда лет. Приложи к этому доступ ко всем знаниям человечества и получишь вполне вероятное появление супер-ии. через 24 часа обучения виртуальные сущности в виртуальной среде начинают быть крайне эффективными в той задаче, которая влияет на отбор, эффективнее человека. Я уж не говорю, что квантовый компьютер, мгновенно решает задачи, на которые суперкомпьютерам нужны годы перебора. Наверняка любая уважающая себя корпорация добра работает над такой машиной не покладая рук. Появление ИИ сравнимого с человеком, но более быстрого неизбежно и очень скоро 15-20 лет. Надеюсь только что произойдет все по трансгуманистическому сценарию, и машины, что будут жить вместо нас унаследуют нашу культуру и человечность. А уничтожать нас никто скорее всего не будет, мы сами осознаем ущербность и постепенно перейдем в облака, а олдфаги просто умрут своей смертью. Меня это тоже пугает, поймите правильно, но совершенно очевидно, что человеку и личности в том виде, в котором мы её знали пришел конец. Мы формируем новую гиперструктуру, становясь нейронами в гипермозге работающем поверх TCP-IP. Ведь люди естественным образом стали вести себя как нейроны . Формируют связи, получая информацию из кучи источников усиливают ту, на которой резонируют и передают дальше по своим каналам. Смотрите шире, мир меняется прямо сейчас. За нашу жизнь произойдут колоссальные изменения.

Ответить
gusanone
0
gusanone читатель (2 комментария)
15 октября 2016 г. 13:35:41 #

И еще, люди, которые думают что ИИ делает то, на что запрограммирован ошибаются. Мы понятия не имеем какая логика выстраивается внутри нейросети, и это не так просто проанализировать, учитывая, что внутри перцептрона (конструкции из виртуальных нейронов) создается сложное многомерное пространство. Мы просто отбираем те модели, что лучше справляются с задачей. Но есть и прецеденты неожиданного поведения. Например когда ии понимает, что самый короткий путь решить задачу, это ввести человека в заблуждение, что она выполнена. У Гугла деже есть специальный список нежелательных моделей поведения, на которые они всегда проверяют своих подопечных. Такие как обман человека, взлом системы поощрения и тд.

Ответить
gusanone
0