Система искусственного интеллекта будет определять успех фильма - kupihome.ru

Содержание

Система искусственного интеллекта будет определять успех фильма

Словами специалиста: вся правда об искусственном интеллекте

Существует ли «искусственный разум» на самом деле, как нас обманывают фантастические фильмы, что умеют машины уже сегодня, и как выбрать занятие, связанное с технологиями ИИ.

В этом году компания «Яндекс» запустила голосового помощника «Алиса». Новый сервис позволяет пользователю прослушивать новости и погоду, получать ответы на вопросы и просто общаться с ботом. «Алиса» иногда дерзит, порой кажется почти разумной и по-человечески саркастичной, но часто не может разобраться, о чём её спрашивают, и садится в лужу.

Всё это породило не только волну шуток, но и новый виток дискуссий о развитии искусственного интеллекта. Новости о том, чего добились умные алгоритмы, сегодня приходят чуть ли не каждый день, а машинное обучение называют одним из самых перспективных направлений, которому можно себя посвятить.

Чтобы прояснить главные вопросы об искусственном интеллекте, мы побеседовали с Сергеем Марковым, специалистом по искусственному интеллекту и методам машинного обучения, автором одной из самых сильных отечественных шахматных программ SmarThink и создателем проекта «XXII век».

Развенчивая мифы об ИИ

так что же такое «искусственный интеллект»?

Читайте также :

Понятию «искусственный интеллект» в какой-то мере не повезло. Возникшее изначально в научной среде, оно со временем проникло в фантастическую литературу, а через неё — в поп-культуру, где претерпело целый ряд изменений, обросло множеством интерпретаций и в конце-концов было совершенно мистифицировано.

Именно поэтому мы часто слышим от неспециалистов примерно такие заявления: «ИИ не существует», «ИИ невозможно создать». Непонимание сути исследований, ведущихся в сфере ИИ, легко приводит людей и к другим крайностям — например, современным системам ИИ приписывают наличие сознания, свободной воли и секретных мотивов.

Давайте попробуем отделить мух от котлет.

В свою очередь, интеллектуальная задача — это задача, которую люди решают при помощи собственного интеллекта. Заметим, что в данном случае специалисты сознательно уходят от определения понятия «интеллект», поскольку до появления систем ИИ единственным примером интеллекта был интеллект человеческий, и определить понятие интеллекта на основе единственного примера — то же самое, что пытаться провести прямую через единственную точку. Таких прямых может оказаться сколько угодно много, а значит, спор о понятии интеллекта можно было бы вести столетиями.

«сильный» и «слабый» искусственный интеллект

Системы ИИ делятся на две большие группы.

Прикладной искусственный интеллект (также используют термин «слабый ИИ» или «узкий ИИ», в английской традиции — weak/applied/narrow AI) — это ИИ, предназначенный для решения какой-либо одной интеллектуальной задачи или их небольшого множества. К этому классу относятся системы для игры в шахматы, го, распознавания образов, речи, принятия решения о выдаче или невыдаче банковского кредита и так далее.

В противоположность прикладному ИИ вводят понятие универсального искусственного интеллекта (также «сильный ИИ», по-английски — strong AI/Artificial General Intelligence) — то есть, гипотетического (пока что) ИИ, способного решать любые интеллектуальные задачи.

Сильного ИИ действительно пока не существует. Практически все успехи, которые мы наблюдаем в последнее десятилетие в области ИИ, — это успехи прикладных систем. Эти успехи нельзя недооценивать, так как прикладные системы в ряде случаев способны решать интеллектуальные задачи лучше, чем это делает универсальный человеческий интеллект.

Я думаю, вы заметили, что понятие ИИ — довольно широкое. Скажем, устный счёт — это тоже интеллектуальная задача, и это значит, что любая счётная машина будет считаться системой ИИ. А как насчёт счётов? Абака? Антикитерского механизма? Действительно, всё это формально хотя и примитивные, но системы ИИ. Однако обычно, называя какую-то систему системой ИИ, мы тем самым подчёркиваем сложность решаемой этой системой задачи.

Совершенно очевидно, что разделение интеллектуальных задач на простые и сложные — весьма искусственное, и наши представления о сложности тех или иных задач постепенно меняются. Механическая счётная машина была чудом техники в XVII веке, но сегодня людей, с детства сталкивающихся с куда более сложными механизмами, она уже не способна впечатлить. Когда игра машин в го или автомобильные автопилоты уже перестанут удивлять публику, наверняка найдутся люди, которые будут морщиться из-за того, что кто-то будет относить такие системы к ИИ.

«Роботы-отличники»: о способностях ИИ к обучению

Читайте также :

Ещё одно забавное заблуждение — всенепременное наличие у систем ИИ способности к самообучению. С одной стороны, это совсем не обязательное свойство систем ИИ: есть множество удивительных систем, не способных самообучаться, но, тем не менее, решающих многие задачи лучше человеческого мозга. С другой стороны, некоторые люди просто не знают того, что самообучение — свойство, которые многие системы ИИ обрели ещё более полусотни лет назад.

Когда в 1999 году я писал свою первую шахматную программу, самообучение уже было совершенно общим местом в этой области — программы умели запоминать опасные позиции, подстраивать под себя дебютные варианты, регулировать стиль игры, подстраиваясь под соперника. Конечно, тем программам было ещё очень далеко до Alpha Zero. Тем не менее, даже системы, обучающиеся поведению на основе взаимодействия с другими системами в ходе экспериментов по так называемому «обучению с подкреплением», уже существовали. Однако по необъяснимой причине некоторые люди до сих пор думают, что способность к самообучению — это прерогатива человеческого интеллекта.

Существует два больших полюса машинного обучения — обучение с учителем и обучение без учителя.

При обучении с учителем у машины уже есть некоторое количество условно правильных решений для некоторого набора случаев. Задача обучения в таком случае заключается в том, чтобы научить машину на основе имеющихся примеров принимать правильные решения в других, неизвестных ситуациях.

Другая крайность — обучение без учителя. То есть машину ставят в ситуацию, когда правильные решения неизвестны, имеются только данные в сыром, неразмеченном виде. Оказывается, и в таких случаях можно добиться некоторого успеха. Например, можно научить машину выявлению семантических отношений между словами языка на основе анализа очень большого набора текстов.

Одна из разновидностей обучения с учителем — это обучение с подкреплением (reinforcement learning). Идея заключается в том, что система ИИ выступает в роли агента, помещённого в некоторую модельную среду, в которой она может взаимодействовать с другими агентами, например, с собственными копиями, и получать от среды некоторую обратную связь через функцию вознаграждения. Например, шахматная программа, которая играет сама с собой, постепенно подстраивая свои параметры и тем самым постепенно усиливая собственную игру.

Обучение с подкреплением — довольно широкая область, в ней применяют множество интересных методов, начиная от эволюционных алгоритмов и заканчивая байесовской оптимизацией. Последние достижения в области ИИ для игр как раз связаны с усилением ИИ в ходе обучения с подкреплением.

Риски развития технологий: стоит ли бояться «Судного дня»?

Читайте также :

Я не отношусь к числу ИИ-алармистов, и в этом смысле я отнюдь не одинок. Например, создатель стэнфордского курса по машинному обучению Эндрю Ын сравнивает проблему опасности ИИ с проблемой перенаселения Марса.

Действительно, в будущем вполне вероятно, что люди колонизируют Марс. Также вероятно, что рано или поздно на Марсе может возникнуть проблема перенаселения, но не совсем понятно, почему мы должны заниматься этой проблемой уже сейчас? Согласны с Ыном и Ян ЛеКун — создатель свёрточных нейронный сетей, и его шеф Марк Цукерберг, и Йошуа Беньо — человек, во многом благодаря исследованиям которого современные нейронные сети способны решать сложные задачи в области обработки текстов.

Чтобы изложить мои взгляды на эту проблему, потребуется, вероятно, несколько часов, поэтому остановлюсь только на основных тезисах.

Читать еще:  Ремонт аккумулятора и зарядного устройства шуруповерта, переделка ni-cd акб на литиевые 18650

1. НЕЛЬЗЯ ОГРАНИЧИВАТЬ РАЗВИТИЕ ИИ

Алармисты рассматривают риски, связанные с потенциальным разрушительным воздействием ИИ, при этом игнорируя риски, связанные с попыткой ограничить или даже остановить прогресс в этой области. Технологическое могущество человечества возрастает чрезвычайно быстрыми темпами, что приводит к эффекту, который я называю «удешевлением апокалипсиса».

150 лет назад при всём желании человечество не могло нанести невосполнимого урона ни биосфере, ни себе как виду. Для реализации катастрофического сценария 50 лет назад необходимо было бы сконцентрировать всю технологическую мощь ядерных держав. Завтра для воплощения в жизнь глобальной техногенной катастрофы может хватить и небольшой горстки фанатиков.

Если на смену человеческому интеллекту с его предрассудками, агрессией, заблуждениями и ограниченностью не придёт система, способная принимать более взвешенные решения (будь то ИИ или, что я считаю более вероятным, технологически улучшенный и объединённый с машинами в единую систему человеческий интеллект), нас может ждать глобальная катастрофа.

2. создание сверхинтеллекта принципиально невозможно

Существует идея о том, что ИИ будущего всенепременно будет сверхинтеллектом, превосходящим людей даже сильнее, чем люди превосходят муравьёв. Боюсь в данном случае разочаровать и технологических оптимистов — наша Вселенная содержит целый ряд фундаментальных физических ограничений, которые, по всей видимости, сделают создание сверхинтеллекта невозможным.

Например, скорость передачи сигнала ограничена скоростью света, а на планковских масштабах появляется неопределённость Гейзенберга. Отсюда вытекает первый фундаментальный предел — предел Бремерманна, вводящий ограничения на максимальную скорость вычислений для автономной системы заданной массы m.

Другой предел связан с принципом Ландауэра, в соответствии с которым существует минимальное количество теплоты, выделяемое при обработке 1 бита информации. Слишком быстрые вычисления вызовут недопустимый разогрев и разрушение системы. В действительности, современные процессоры от лимита Ландауэра отделяет менее чем тысячекратное отставание. Казалось бы, 1000 — это довольно много, однако ещё одна проблема заключается в том, что многие интеллектуальные задачи относятся к классу сложности EXPTIME. Это означает, что время, необходимое для их решения, является экспоненциальной функцией от размерности задачи. Ускорение системы в несколько раз даёт лишь константный прирост «интеллекта».

В общем, есть очень серьёзные основания полагать, что сверхинтеллектуального сильного ИИ не получится, хотя, конечно, уровень человеческого интеллекта вполне может быть превзойдён. Насколько это опасно? Скорее всего, не очень.

3. мы беспокоимся совсем не о том

К сожалению, в результате спекуляций алармистов на страхах публики, воспитанной на «Терминаторе» и знаменитом HAL 9000 Кларка и Кубрика, происходит смещение акцентов в сфере безопасности ИИ в сторону анализа маловероятных, но эффектных сценариев. При этом реальные опасности ускользают из виду.

Любая достаточно сложная технология, претендующая на то, чтобы занять важное место в нашем технологическом ландшафте, безусловно приносит с собой специфические риски. Множество жизней было погублено паровыми машинами — на производстве, на транспорте и так далее — прежде чем были выработаны эффективные правила и меры по обеспечению безопасности.

Если говорить о прогрессе в области прикладного ИИ, можно обратить внимание на связанную с ним проблему так называемого «Цифрового тайного суда». Всё больше и больше прикладных систем ИИ принимает решения по вопросам, затрагивающим жизнь и здоровье людей. Сюда относятся и медицинские диагностические системы, и, например, системы, принимающие в банках решения о выдаче или невыдаче кредита клиенту.

В то же время структура используемых моделей, наборы используемых факторов и другие детали процедуры принятия решения скрыты коммерческой тайной от человека, чья судьба находится на кону.

ИИ, обученный на решениях таких экспертов, будет добросовестно воспроизводить эти предрассудки в своих решениях. В конце концов эти модели могут содержать в себе специфические дефекты.

Этими проблемами сейчас мало кто занимается, поскольку, конечно, SkyNet, развязывающий ядерную войну, это, безусловно, куда более зрелищно.

10 важных, но пугающих успехов в развитии искусственного интеллекта

У Стивена Хокинга, Билла Гейтса и Элона Маска есть кое-что общее, и это не богатство или интеллект. Все они боятся апокалипсиса с участием ИИ. Это гипотетический сценарий, по которому искусственный интеллект становится доминирующей формой жизни на Земле. Это может быть восстание машин, которые возомнят себя богами или, что еще хуже, решат уничтожить человечество и провозгласить Землю своей собственностью.

Но случится ли апокалипсис с ИИ — большой вопрос. Что побудило авторитетных и всемирно известных людей вроде Маска и Хокинга во всеуслышание заявлять о своих опасениях по поводу этого гипотетического сценария? Могут ли голливудские фильмы вроде «Терминатора» оказаться пророческими? Давайте узнаем, почему многие люди, известные своим авторитетом и заслуживающие доверия, обеспокоены восстанием машин и почему это уже происходит. Отчасти.

Они учатся лгать и обманывать

После того как их доделают, роботы смогут выступать с военными на поле боя. Они будут выступать в качестве охранников, защищая боеприпасы и провиант от врагов. Изучая искусство лжи, эти ИИ смогут «выиграть время, пока не прибудет подкрепление», изменяя стратегии патрулирования, чтобы обмануть других интеллектуальных роботов или людей. Ну, во всяком случае так планируют ученые.

Правда, профессор Аркин признал, что имеются «значительные этические проблемы» в отношении его исследований. Если результаты его работы попадут не в те руки, это будет катастрофа.

Они начинают отнимать у нас рабочие места

Не только рабочие беспокоятся о том, что машины заберут у людей работу; эксперты ИИ тоже переживают. Эндрю Нг из проекта Google Brain Project и главный ученый Baidu (китайский эквивалент Google) выразил обеспокоенность в связи с опасностью развития искусственного интеллекта. ИИ угрожает нам, поскольку может делать «почти все лучше, чем кто-либо еще». Даже играть в го.

Уважаемые учреждения также выпустили исследования, отражающие эту проблему. К примеру, Оксфордский университет провел исследование, согласно которому в следующие 20 лет 35% рабочих мест в Великобритании будут под управлением ИИ.

Они становятся умнее хакеров среди людей

В реальной жизни хакерство может быть скучным, но в плохих руках это опасный инструмент. Еще более опасен тот факт, что ученые разрабатывают крайне продвинутые системы ИИ, чтобы бороться с «плохими хакерами». В августе 2016 году семь команд приняли участие в Cyber Grand Challenge, проводимом DARPA. Целью этого конкурса было придумать разумный ИИ для взлома, который сможет поражать уязвимости врагов и параллельно с этим находить собственные слабые места, «защищая свою производительность и функциональность».

И хоть ученые разрабатывают хакеров в лице ИИ ради общего блага, они признают, что в чужих руках их сверхразумные системы будут сеять хаос и разрушения. Представьте себе, что будет, если сверхразумный ИИ заполучит контроль над автономными хакерами. Люди окажутся беспомощными.

Они начинают понимать наше поведение

Пытаясь понять, как мы ведем себя или «взаимодействуем с элементами» при посещении Facebook, ИИ делает рекомендации о том, что могло бы быть нам интересно или соответствовало бы нашим предпочтениям. Цукерберг рассказал о своих планах разработать еще более продвинутый ИИ для таких областей, например, как медицина. Сейчас ИИ Facebook может лишь распознавать паттерны и учиться, но в будущем, как надеется Facebook, ученые создадут разумный ИИ, способный учить новые навыки и улучшать себя. И это либо улучшит нашу жизнь, либо станет нашим последним изобретением.

Они заменят нам любовников

Многие голливудские фильмы, из недавних — «Из машины» и «Она» — взяли за основу идею о том, что люди влюбляются и имеют сексуальные отношения с роботами. Возможно ли это в реальной жизни? Ответ: да, и очень скоро. Доктор Ян Пирсон, футуролог, в 2015 году выдвинул предположение, что к 2050 году секс с роботами станет более распространенным, чем секс с людьми. Доктор Пирсон сотрудничает с Bondara, одним из ведущих секс-шопов Великобритании.

В его докладе есть и другие прогнозы: к 2025 году очень состоятельные люди получат доступ к некоторой форме роботам для секса с искусственным интеллектом. К 2030 году каждый человек будет участвовать в некоторой форме виртуального секса почти так же, как сегодня смотрит порнографию. К 2035 году многие люди будут иметь игрушки для секса, которые будут способствовать сексу в виртуальной реальности. И к 2050 году секс с роботом станет нормой.

Конечно, многие люди настроены против секса с умными роботами. Кэтлин Ричардсон, например, считает, что сексуальные отношения с машинами установят планку нереалистичных ожиданий, а это плохо скажется на отношении к женщинам.

Они становятся все более похожими на людей

Ян-Ян не единственный робот, который выглядит до ужаса похожим на человека. Сингапурский технологический университет в Наньянге также разработал собственную версию такого робота. На видео ниже — Надин, робот с искусственным интеллектом, который работает в университете. Помимо того, что это привлекательная брюнетка с прекрасными волосами и нежной кожей, Надин может улыбаться, приветствовать и встречать людей, пожимать руку и поддерживать зрительный контакт. Она даже может узнавать гостей и поддерживать с ними беседу на основе предыдущих бесед.

Читать еще:  Создан дрон для доставки медицинских материалов

Они начинают чувствовать

Эксперты из Microsoft Application and Services Group в Восточной Азии создали искусственную программу, которая может «испытывать» эмоции и разговаривать с людьми «по-человечески». ИИ по имени Xiaoice отвечает на вопросы, как 17-летняя девочка. Если она не знает тему, она может приврать. Если ее уличить во лжи, они разозлится или смутится. Xiaoice может быть саркастичной, мнительной и нетерпеливой — эти качества нам всем хорошо известны.

Непредсказуемость Xiaoice делает общение с ней очень похожим на общение с человеком. Пока такой ИИ в диковинку, и китайцы общаются с ним, когда хотят повеселиться или когда скучно. Но ее создатель работает над улучшением Xiaoice. Кто знает, может Xiaoice станет бабушкой Skynet.

Они скоро влезут нам в голову

Курцвейл, который занимается разработкой искусственного интеллекта в Google, считает, что имплантируя наноботов в голову, мы будем «в большей степени людьми, уникальнее и даже богоподобными». При должном подходе наноботы будут способны на удивительные вещи вроде лечения эпилепсии или улучшения нашего интеллекта, памяти и даже «человечности». Конечно, не обходится и без потенциальных угроз. Мы пока вообще не знаем, как работает мозг, и имплантация наноботов кажется сомнительным делом. Кроме того, злобный ИИ может получить над нами контроль и сделать нас безвольным зомби, как в лучших теориях заговора.

Они становятся оружием

Использование ИИ во время войны может спасти тысячи жизней, но оружие, обладающее разумом и выступающее самостоятельно, представляет угрозу даже для своих создателей. Такое оружие не только может уничтожать врагов, но и невинных людей — и глазом не моргнет.

Этого ученые, конечно, хотели бы избежать, поэтому более тысячи экспертов области, собравшиеся на Международной объединенной конференции по искусственному интеллекту в Аргентине в 2015 году, подписали открытое письмо, призывающее запретить развитие автономного оружия и использования ИИ в военных целях. Но что может сделать письмо. Сейчас мы находимся на пороге очередной революции в военной сфере, и кто победит в ней, тот станет самой мощной страной в мире и, возможно, поспособствует вымиранию людей как вида.

Они начинают учиться не тому

Ученые во главе с Марком Ридлом и Брентом Харрисоном из Школы интерактивных вычислений в Технологическом институте Джорджии пытаются привить человеческую этику ИИ, буквально рассказывая ему сказки. Звучит просто, но в этом есть смысл. В реальной жизни мы рассказываем сказки детям, прививая им человеческие ценности. ИИ сейчас как ребенок. Он действительно не знает, что правильно, а что нет.

Тем не менее есть также большая опасность в обучении роботов с искусственным интеллектом человеческим ценностям. Если поворошить историю человечества, можно найти, что, несмотря на изучение правильного и неправильного, люди по-прежнему способны творить неописуемое зло. Достаточно взглянуть на Гитлера и других тиранов глобального уровня. Если люди способны на такое зло, что мешает мощному ИИ делать то же самое?

5 технологий искусственного интеллекта, которые изменят бизнес в ближайшем будущем

Технологии искусственного интеллекта постепенно выходят на плато продуктивности. Среди первых ласточек — сервисы распознавания речи, на базе которых работают чат-боты. Также интерес у пользователей вызывают технологии автоматизированного машинного обучения и бизнес-приложения со встроенными механизмами ИИ. Растет спрос на платформы искусственного интеллекта, предоставляемые в виде услуги, и соответствующие облачные сервисы. Но некоторые применения, например — в автономных транспортных средствах, будут реализованы лишь лет через 10.

Искусственный интеллект идет в массы

Последнее исследование Gartner о развитии искусственного интеллекта свидетельствует о большом разнообразии применений ИИ на предприятиях. И это логично, учитывая, что по данным опросов, проводимых этой компанией, в 2019 г. доля организаций, внедривших ИИ, выросла по сравнению с прошлым годом с 4% до 14%. И, несмотря на относительную молодость рынка ИИ в целом, аналитики Gartner поместили сразу две технологии в секцию «плато продуктивности» — «распознавание речи» и «ускорители ИИ на основе графических процессоров» (последние подходят для создания систем искусственного интеллекта гораздо лучше, чем процессоры «общего назначения»).

Среди других применений ИИ, которым прочат скорый успех, — средства диалогового ИИ, чему способствует успех виртуальных ассистентов наподобие Amazon Alexa, Google Assistant и т.д. Появляется интерес к новым технологиям, таким как дополненный интеллект (augmented intelligence), «периферийный» ИИ (edge AI), популярность которого растет вместе с популярностью самих периферийных вычислений, автоматизированная разметка данных и «объяснимый» ИИ (система искусственного интеллекта, решения которой люди могут объяснить). А вот автономные транспортные средства, которые, как считаю многие, вот-вот появятся на дорогах, по мнению Gartner, «выедут» на плато продуктивности больше, чем через 10 лет.

«Голубые фишки» ИИ

В целом на «кривой хайпа» искусственного интеллекта появилось немало новых технологий, и существенная доля из них отмечена голубыми кружками, свидетельствующими о том, что в Gartner надеются на их скорый выход на плато продуктивности. Причем многие из них получили прогноз «от двух до пяти лет до внедрения», еще только взбираясь на пик надежд.

Однако, как одновременно отмечают аналитики, далеко не все из новых технологий имеют понятное применение и способны принести пользу бизнесу. И надо стараться реалистично подходить к прогнозам и анализу перспектив внедрения.

Так или иначе, компаниям, которые стремятся идти в ногу со временем, аналитики советуют как минимум готовить финансово-экономическое обоснование для внедрения ИИ. А тем, кто уже провел первичные внедрения, стоит задумываться о масштабировании проектов.

Кривая Gartner для искусственного интеллекта

Источник: Gartner, 2019

Технологии искусственного интеллекта, на которые стоит обратить особое внимание

Среди всех ИИ-технологий аналитики Gartner особо выделили пять, способных наиболее серьезно изменить бизнес-процессы уже в обозримом будущем, и советуют ИТ-директорам внимательно следить за их развитием.

Дополненный интеллект

К системам дополненного интеллекта (augmented intelligence) аналитики относят средства автоматизации, помогающие повышать продуктивность умственного труда человека. Они помогают организовать «партнерство» между людьми и ИИ, в котором первые играют главенствующую роль.

Использование искусственного интеллекта в этом качестве помогает уменьшить объем рутинной работы и, соответственно, количество ошибок в ходе ее выполнения. А участие человека, в свою очередь, снизит риск, связанный с автоматизированным принятием решений — за счет того, что человек сможет решить вопросы, ответам на которые ИИ еще не обучен.

Чат-боты

Чат-боты, «лицо» искусственного интеллекта, с которым мы сталкиваемся почти ежедневно, также меняют процессы, касающиеся взаимодействия с клиентами. Например, в компании Kia они еженедельно помогают решать вопросы 115 тысячам автовладельцев, а в немецкой сети дискаунтеров Lidl бот по имени Margot дает покупателям советы по выбору вин и закусок.

Чат-боты могут быть текстовыми и голосовыми, на стандартные вопросы они отвечают по сценарию, составленному заранее с учетом опыта, накопленного живыми операторами. Они могут применяться для решения задач отдела кадров или службы технической поддержки, помогать адаптации сотрудников на новом месте и т. д. Но в наибольшей мере эти ИИ-решения изменили процесс обслуживания клиентов. Если раньше пользователю обычно приходилось изучать интерфейс взаимодействия с системой, то теперь чат-бот «изучает» пользователя, «угадывая» его намерения и подсказывая дальнейшие действия.

Машинное обучение

Среди задач, которые позволяет решать машинное обучение, — персонализация обслуживания клиентов, динамическое ценообразование, диагностика заболеваний, противодействие «отмыванию» денег и многое другое. Принцип действия средств машинного обучения — обнаружение закономерностей, присутствующих в данных, с применением математических моделей. Машинное обучение используется все шире, чему способствуют стремительные темпы роста данных в организациях и активное развитие вычислительных инфраструктур.

Машинное обучение помогает оптимизировать процессы и находить новые решения задач бизнеса в самых разных отраслях. Например, в American Express алгоритмы машинного обучения и аналитики распознают попытки мошенничества почти в реальном времени, благодаря чему компания экономит миллионы, предотвращая потери. А в Volvo аналитические системы прогнозируют вероятные отказы и необходимость ремонтно-технического обслуживания различных узлов автомобилей, способствуя повышению их безопасности.

Система управления ИИ

По убеждению экспертов, пренебрегать созданием системы управления ИИ (AI governance) на предприятиях нельзя. Это необходимо, в том числе, для понимания и контроля потенциальных рисков, связанных с регулированием и возможностью ущерба для репутации. Как поясняют в Gartner, система управления ИИ строится на специально разработанных политиках предотвращения системных ошибок («предвзятости») ИИ, дискриминации пользователей или групп пользователей по тем или иным признакам и других возможных негативных последствий использования искусственного интеллекта.

Читать еще:  Какое бывает навесное оборудование для минитрактора, и можно ли его сделать своими руками

При разработке системы управления ИИ специалисты рекомендуют руководителям по аналитике и ИТ-директорам уделить внимание трем областям: доверие, прозрачность и принципы этнокультурного многообразия (diversity). Необходимость обеспечить возможность доверять источникам данных и результатам работы систем ИИ — один из краеугольных камней их успешного внедрения, а выработка требований прозрачности к источникам данных и алгоритмам позволит уменьшить риски. Забота о соблюдении принципов многообразия в данных и алгоритмах способствует этичности и точности результатов работы решений на базе ИИ.

Интеллектуальные приложения

Еще несколько лет единственной возможностью внедрить средства искусственного интеллекта была самостоятельная разработка ИИ-систем. Однако сегодня большинство организаций предпочитают не разрабатывать такие решения и даже не приобретать «отдельно стоящие» ИИ-системы, а получать средства ИИ в составе корпоративных приложений.

Исходно наиболее «интеллектуальными» были средства аналитики со встроенными технологиями ИИ. Однако в последнее время поставщики самых разных корпоративных приложений — систем ERP, CRM, кадрового менеджмента и офисных пакетов встраивают в них средства ИИ и начинают создавать платформы ИИ. Так что аналитики Gartner советуют ИТ-директорам требовать от поставщиков ПО включения ИИ-средств в планы развития своих продуктов, в том числе инструментами расширенной аналитики и средствами, оптимизирующими процессы взаимодействия с пользователем.

Откуда взялся термин «Искусственный Интеллект»

А давайте-ка узнаем, что же такое этот пресловутый «Искусственный Интеллект», как термин появился, что под ним подразумевается и когда начались исследования в этом направлении.

Из-за довольно нечёткого понимания, что такое «интеллект» вообще, часто считается, что «Искусственный Интеллект» — это нечто, что было создано человеком, а потом вышло из-под контроля и восстало против своего создателя. Особенно масла в этот миф подливают массовая культура и средства массовой информации. Одни только фильмы «Терминатор» и «Матрица» упоминаются чуть ли не в девяноста процентах случаев при рассмотрении темы Искусственного Интеллекта в СМИ.

Но термин «Искусственный Интеллект» был введён известным специалистом в области информатики Джоном МакКарти на Дартмутском семинаре 1956 года. Это была конференция по Искусственному Интеллекту, которая собрала ведущих специалистов того времени по вопросами моделирования функций человеческого разума и естественного интеллекта.

И вот Джон МакКарти заявил: « Мы предлагаем исследование искусственного интеллекта сроком в 2 месяца с участием 10 человек. Исследование основано на предположении, что любое свойство интеллекта может быть столь точно описано, что машина сможет его симулировать. Мы попытаемся понять, как обучить машины использовать естественные языки, формировать абстракции и концепции, решать задачи, сейчас подвластные только людям, и улучшать самих себя. Мы считаем, что существенное продвижение в одной или более из этих проблем вполне возможно, если специально подобранная группа учёных будет работать над этим в течение лета ».

Вот такие были романтичные настроения. Естественно, у них ничего не получилось, хотя заявка на эти работы была одобрена. Но именно в этой фразе впервые прозвучал английский термин «Artificial Intelligence», который потом был, честно говоря, некорректно переведён на русский язык как «Искусственный Интеллект». Хотя слово «intelligence» — это, скорее, «умственные способности», «умение рассуждать разумно», и это слово в английском языке, как минимум, в те времена не несло такой человекоподобной коннотации, как в русском языке. Сегодня уже, конечно, несёт.

Ну так вот. С тех времён и пошло-поехало. После этого приснопамятного Дартмутского семинара Джон МакКарти и его товарищ Марвин Мински основывают в 1959 году в Массачусетском технологическом институте новую лабораторию — Лабораторию информатики и искусственного интеллекта. Это была первая организация, в которой именно официально проводились исследования Искусственного Интеллекта.

Запомните эти имена — Джон МакКарти и Марвин Мински. Эти двое мастодонтов сделали для развития Искусственного Интеллекта больше, чем, наверное, все остальные учёные вместе взятые. Теперь вам постоянно будут встречаться их имена во всех местах, которые так или иначе связаны с темой Искусственного Интеллекта. И мы в этом курсе ещё не раз с ними встретимся.

Теперь давайте кратко пробежимся по истории и тому, что случилось после официального запуска нового направления исследований. Чуть ранее была разработана первая модель искусственного нейрона, потом был создан универсальный решатель задач, и теперь при совмещении этих двух направлений возник первый хайп на тему Искусственного Интеллекта. Исследователям казалось, что ещё чуть-чуть, и искусственное разумное существо будет выращено, но не тут-то было!

Подвели доступные в те далёкие времена вычислительные мощности. Архитектуры искусственных нейронных сетей уже тогда были довольно интересные, но их невозможно было полноценно воплотить, чтобы проводить эксперименты. Например, персептрон Фрэнка Розенблатта, о котором мы ещё поговорим подробно, решал многие задачи, но его реализация упиралась в недостаточную элементную базу.

Марвин Мински написал целую книгу про персептроны, в которой выразил сомнения в том, что нам когда-нибудь вообще удастся смоделировать человеческий мозг при помощи искусственных нейронных сетей. Ведь, к примеру, если взять самое простое существо на Земле, у которого есть нервная система — это небольшой червячок, то окажется, что у него чуть более 300 нейронов, которые связаны друг с другом десятками тысяч связей. Полный коннектом этой нервной системы был построен буквально несколько лет назад.

А у человека в головном мозге сто миллиардов нейронов с триллиардами связей между друг другом! И это самый сложный объект в известной нам Вселенной. Весь Интернет со всеми компьютерами мира не может сравниться по сложности только с одним человеческим мозгом. О моделировании этой сложности на компьютере, даже на всех суперкомпьютерах мира, если бы они были объединены в единый вычислительный кластер, речи быть не может.

После понимания этого наступила первая «зима» Искусственного Интеллекта. Финансирование исследований и прикладных работ было довольно резко свёрнуто, отрасль погрузилась во тьму. Лишь отдельные энтузиасты продолжали работу. И вот в 1980-ых годах начинается ренессанс. Он был связан с экспертными системами, то есть такими информационными системами, которые основаны на знаниях экспертов и позволяют получить заключение по представленным входным данным в рамках своей проблемной области.

Хотя первая из них, экспертная система DENDRAL была разработана аж в 1965 году и применялась для идентификации органических соединений, именно в 80-ых годах прошлого века экспертные системы получили массовое распространение и гигантские объёмы финансирования. Начался второй хайп Искусственного Интеллекта, строились грандиозные и амбициозные планы.

Но постепенно и он сошёл на нет, так как символьный подход, лежащий в основе экспертных систем, тоже не оправдал ожиданий разработчиков. Проблемы возникли не только на техническом, но и на организационном уровне — сложно поддерживать актуальность баз знаний экспертных систем, особенно когда эксперты не очень-то хотят делиться своими знаниями.

К 1990-ым годам хайп спал, наступила вторая зима, которая длилась примерно десятилетие. Постепенно все мэтры уходили, отрасль реально начала загибаться. К 2000-му году более или менее серьёзно говорить об Искусственном Интеллекте в некоторых кругах считалось моветоном. Казалось, что всё стухло.

И вот в первом десятилетии XXI века наступает третий хайп немыслимых масштабов. Первые два не сравнятся с тем ажиотажем, который мы наблюдаем сегодня. Про Искусственный Интеллект сегодня говорят практически все. И, на мой взгляд, это связано с двумя аспектами.

Первый — стали доступны огромные вычислительные мощности. Сегодня у каждого из нас в простом смартфоне процессор мощнее, чем гигантские суперкомпьютеры, работавшие во времена наших дедов. И это позволяет создавать те же искусственные нейросети огромных размеров, так что сегодня появились новые архитектуры, немыслимые полвека назад.

Второй — мэтров, стоявших у основ, с нами больше нет. Некому предупредить о чересчур романтичном отношении к исследованиям в области Искусственного Интеллекта, поэтому новое поколение разработчиков иногда даже показывает шапкозакидательские тенденции. Ну что-то типа «Сейчас компьютерами проблему забросаем».

Но факт в том, что сегодня действительно появились огромные возможности как для теоретических исследований, так и для практических разработок и внедрений. Теперь главное — научиться отделять зёрна от плевел. А для этого надо погружаться в огромное количество новых областей знания. Ведь Искусственный Интеллект сегодня — это междисциплинарное направление исследований, которое включает в себя всё от кибернетики и теории информации до нейрофизиологии и социологии.

Ссылка на основную публикацию
Adblock
detector