Благодаря растущей счётной мощности автомобили обучились распознавать речь и объекты в настоящем времени. ИИ обязан этим способу глубокого обучения. Что будет дальше?
Смотрите кроме этого: Intel прекращает производство десктопных материнских плат
В течение трёх лет Intel свернёт производство материнских плат для настольных компьютеров. Последними процессорами, для которых будут производиться «родные» платы, станут чипы на микроархитектуре Haswell, релиз которых ожидается в июне этого года. Intel так же, как и прежде будет создавать платы для серверов, а на потребительском рынке сосредоточится на новых форм и мобильных устройствах-факторах, таких как Next unit of computing (Intel NUC) — полноценный компьютер с процессором Core i3 либо i5 размером 10 на 10 сантиметров — только ненамного больше и толще Raspberry Pi.
В июле прошлого года американский изобретатель и футуролог Рэймонд Курцвейл встретился с председателем совета директоров корпорации «Google» Ларри Пейджем, дабы продемонстрировать ему черновик собственной новой книги «Как создать мышление» (How to Create a Mind). Приверженец ИИ согласился, что грезит открыть компанию, которая имела возможность выстроить по-настоящему умный компьютер, другими словами таковой, дабы осознавал человеческий язык, имел возможность делать личные выводы и принимать решения. Но для аналогичного проекта потребуются комплекты данных и вычислительные мощности гугломасштаба.
Господин Пейдж дал согласие сотрудничать, но увидел, что маленькая компания не справится с таковой задачей. Намёк был осознан, и в январе с. г. известный Рэй Курцвейл, что всю жизнь трудился лишь на себя, стал техническим директором Гугл. «Это кульминация моего полувекового интереса к ИИ», — вычисляет изобретатель.
По его признанию, он соблазнился не только вычислительной мощностью корпорации, но и поразительным прогрессом, которого она достигла в области так именуемого глубокого обучения (deep learning). Методы глубокого обучения пробуют имитировать деятельность нейронов в новой коре головного мозга, где осуществляется около 80% мыслительных процессов. ПО обучается (в самом буквальном смысле) распознавать закономерности в звуках, изображениях и других данных.
Рэй Курцвейл (фото BusinessMakers Show).
Идее имитации деятельности новой коры большое количество десятков лет, и она привела не только к прорывам, но и разочарованиям. Однако математические формулы совершенствуются, а мощность компьютеров растёт, исходя из этого сейчас возможно смоделировать работу большого количества слоёв нейронов, и изучения длятся.
В июне прошлого года совокупность глубокого обучения «Гугла», которой показали 10 млн кадров YouTube-видео, в два раза действеннее распознавала кошек и другие объекты, чем другие программы. Та же разработка помогла корпорации скорректировать работу приложения по распознаванию речи для сотовых телефонов.
В октябре основной директор по изучениям Микрософт Рик Рашид поразил слушателей его лекции в Китае демонстрацией ПО, которое транскрибировало его обращение в британский текст с погрешностью всего в 7%, по окончании чего переводило на китайский и синтезировало его же голос, как словно бы он говорит на путунхуа. Тогда же трое аспирантов и двое докторов наук посредством совокупности глубокого обучения победили конкурс, проводившийся фармацевтической компанией Merck, по идентификации молекул, способные привести к созданию новых лекарств. В марте с. г. «Google» приобрел стартап, основанный Джефри Хинтоном из Университета Торонто (Канада), что входил в ту победную группу.
Всё это совсем развеяло сомнения в том, что умные автомобили уже покинули страницы фантастических книг. Скоро они поменяют всё, от связи и вычислительных систем до медицины, транспорта и производства. К примеру, компьютер Watson корпорации IBM, победивший в телевикторине Jeopardy! (прообраз отечественной «Собственной игры»), обучается помогать докторам ставить верные заключения.
В голосовом поиске Windows Phone и Bing также задействованы методы глубокого обучения.
Вопрос на данный момент в том, как вывести глубокое обучение за пределы изображений и распознавания речи. Для этого необходимы совсем иные концептуальные и программные ответы, не говоря уже о вычислительной мощи. Быть может, мы ни при каких обстоятельствах не заметим автомобилей, каковые будут вправду мыслить, но сегодняшние прорывы в данной области, говорит Питер Ли, управляющий Микрософт Research США, по крайней мере с новой силой разожгли интерес к изучениям ИИ.
Писать программы, говорящие машине о том, что такое край изображения либо звук, бесперспективно — они ограничены узконаправленными приложениями, делающими определённые команды. Отечественный мозг трудится в противном случае, и это было очевидным ещё в 1950-х, в то время, когда создание ИИ лишь начиналось. В очень сильно упрощённом виде нейронные сети пробовали имитировать уже тогда. Программа образовывает замысел комплекта виртуальных нейронов и после этого присваивает их соединениям случайные цифровые значения от нуля до единицы.
Последние определяют отклик каждого нейрона на тот либо другой выраженный в «цифре» объект настоящего мира — оттенок светло синий на изображении, уровень энергии на определённой частоте звука и пр.
Программисты обучают виртуальные нейронные сети распознавать предмет либо звук на примере громадного количества оцифрованных изображений либо звуковых волн. В случае если совокупность неэффективна, значения корректируются, пока она не обучится постоянно узнавать собаку либо звук «д». Так же обучаются дети: собакой принято именовать объект с основным поведением и внешним видом.
Самые ранние нейронные сети имели возможность имитировать только совсем маленькое количество нейронов, исходя из этого к 1970-м интерес к ним практически угас. Но в середине 1980-х благодаря упрочнениям г-на Хинтона и других исследователей показались более глубокие модели с бессчётными слоями нейронов. От программиста, но, так же, как и прежде зависело очень многое: к примеру, приходилось вручную присваивать значения каждой порции загружаемых данных, а для распознавания речи либо изображений не хватало вычислительной мощности.
Фундаментального прорыва удалось добиться только недавно. В 2006 году господин Хинтон создал более действенный метод обучать слои нейронов. Первый обучается самым несложным вещам — к примеру, понятию края изображения либо небольшому элементу звука речи.
Иными словами, он просто распознаёт комбинации пикселов либо звуковых волн, каковые видятся через чур довольно часто, дабы быть случайными. Когда данный слой выполнил собственную задачу, они передаёт собранную данные второму, что на этом основании может обучиться распознаванию более сложных вещей — к примеру, угла либо сочетания звуков. Процесс длится, вовлекая всё больше слоёв, пока не будет определена конкретная фонема либо отыскан искомый объект.
Таким объектом смогут стать, например, кошки. В июне прошлого года Гугл показала одну из наибольших современных нейронных сетей, которая насчитывает свыше миллиарда соединений. Несколько во главе с доктором наук компьютерных наук из Стэнфорда Эндрю Нг и сотрудником «Гугла» Джефри Дином продемонстрировала совокупности кадры из 10 млн случайно выбранных YouTube-видео. Один виртуальный нейрон фиксировал изображения котиков.
Другие концентрировали внимание на людских лицах, прочих объектах и жёлтых цветах. И благодаря силе глубокого обучения совокупность идентифицировала эти дискретные объекты, даже в том случае, если ни один человек никак их не помечал.
Больше всего ИИ-экспертов поразил масштаб прогресса в распознавании изображений. Совокупность верно распределяла по категориям темы и объекты YouTube-кадров в 16% случаев, что на 70% действеннее прошлых способов. Наряду с этим, как отмечает господин Дин, нужно было выбрать из 22 тыс. категорий. И различия между ними иногда были весьма узкими, как между двумя видами ската, другими словами кроме того человек не всегда имел возможность правильно совладать с данной классификацией.
В то время, когда же совокупности внесли предложение тысячу более неспециализированных категорий, часть верных ответов превысила 50%.
Обучение бессчётных слоёв виртуальных нейронов потребовало 16 тыс. процессоров, что сопоставимо с размахом той инфраструктуры, которой Гугл обзавелась для помощи собственной поисковой совокупности и других интернет-сервисов. Как минимум на 80% недавний прогресс в области ИИ обязан новой вычислительной мощности, отмечает Дилип Джордж, учредитель стартапа Vicarious.
Но одного вычислительного центра мало. Опыт удался благодаря удачам «Гугла» в разработке способов распределения задач между автомобилями для максимально стремительного ответа. Господин Дин трудился над этим 14 лет.
Исходя из этого процесс глубокого обучения удалось ускорить, а наборы и нейронную сеть разрешённых — увеличить.
Глубокое обучение улучшило кроме этого голосовой поиск на смартфонах. Раньше приложение для Android не осознавало многие слова, но при подготовке к выпуску новой версии ОС (она заметила свет в июле прошлого года) несколько г-на Дина заменила один блок ПО тем, что был основан на глубоком обучении. Потому, что бессчётные слои нейронов оказывают помощь выучить разные варианты одного и того же звука, совокупность стала более надёжной, в особенности в шумных местах (к примеру, в метро).
Практически в одночасье количество неточностей упало на четверть, и многие наблюдатели затем сочли данное ПО более умным, чем известное приложение Siri компании Apple.
Джефф Хокинс (фото Palm Computing).
Не обращая внимания на прогресс, не все уверены в том, что именно глубокому обучению суждено сделать ИИ соперником людской разума. Согласно точки зрения скептиков, эта область изучений игнорирует многие нюансы биологии мозга в угоду неотёсанной вычислительной силе.
Один из таких критиков — основатель компании Palm Computing Джефф Хокинс, нынешнее детище которого, Numenta, разрабатывает совокупность машинного обучения, которая также вдохновлена биологией, но не применяет глубокое обучение. Она предвещает закономерности потребления энергии и возможность поломки автомобили — к примеру, ветряной мельницы. Господин Хокинс — создатель книги «Об интеллекте» (2004), в которой несложным языком рассказывается о работе мозга и о том, как эти сведения окажут помощь в разработке умных автомобилей.
Согласно его точке зрения, глубокое обучение по собственной природе не имеет возможности, например, одарить компьютер понятием времени. Поток чувственных данных постоянен, и свойство к обучению связана с воспроизведением в памяти последовательности событий, а не с распознаванием объектов на стоп-кадрах, как это делала совокупность «Гугла». Так машина ни при каких обстоятельствах не осознает, в то время, когда кошка делает что-то забавное, а в то время, когда она не вызывает никаких чувств.
Однако вычислительные ресурсы, каковые компания Гугл кинула в эту прорубь, нереально проигнорировать, парируют приверженцы глубокого обучения. Они в любом случае серьёзны, по причине того, что мозг куда сложнее любой неестественной нейронной сети. Каким бы ни был подход, без своры замечательных компьютеров не обойтись, думает господин Хинтон.
Не смотря на то, что сама корпорация Гугл не торопится поведать, для чего ей всё это необходимо, придумать вероятные приложения нетрудно. К примеру, поиск по изображениям весьма понадобился бы YouTube, а распознавание звуков — в создании совокупностей голосового управления на самых различных языках. Помимо этого, имеется машины без водителя, интернет-реклама и поиск.
Этими вещами именно и очарован господин Курцвейл. Ещё в 1965 году он разработал программу для хорошей музыки в различных стилях, по окончании чего первым создал машину для чтения текста вслух, ПО для оцифровки и сканирования текста безотносительно шрифта, музыкальный синтезатор для воссоздания оркестровых инструментов и совокупность распознавания речи с богатым словарём.
на данный момент ему 65, и он грезит о кибердруге, что подслушивает ваши телефонные беседы, просматривает вашу электронную переписку и смотрит за каждым вашим шагом (если вы ему разрешаете), дабы встретить вас ответом ещё перед тем, как вы сформулируете вопрос. Никто в Гугл не говорит напрямую о том, что чем-то подобным может стать интернет-поиск, но в первые дни существования компании Сергей Брин согласился, что ему хотелось бы создать человеколюбивый аналог компьютера HAL 9000 из фильма «Космическая одиссея 2001 года».
До тех пор пока господин Курцвейл ломает голову над тем, как научить компьютеры осознавать естественный язык а также сказать на нём, дабы лучше искать эти и отвечать на вопросы. Ему хочется переплюнуть Watson, что осознавал самые заковыристые вопросы телевикторины. У него уже имеется мыслишка о том, как графическим образом представить всю семантическую сложность языка, дабы никакие неясности не смущали компьютер.
Что-то подобное уже создано на нижних палубах гуглогалер для корректировки синтаксиса и грамматики машинных переводов. Помимо этого, компания располагает каталогом «Сеть знаний» (Knowledge Graph), в который занесены приблизительно 700 млн тем, локаций, людей и др., и миллиарды связей между ними. Посредством этого сервиса поисковая совокупность планирует самостоятельно отвечать на вопросы, а не только предъявлять ссылки на сайты с этими ответами.
Наконец, господин Курцвейл планирует посредством методов глубокого обучения разрешить компьютерам разобраться с «двусмысленностями языка и тонкими границами». Желаете сообщить, это страшно непростая задача? Так оно и имеется. «Познание естественного языка не та цель, которую в какой-то момент возможно достигнуть, — говорит он. — Не пологаю, что мне суждено завершить данный проект».
Однако попытка приблизиться к данной цели, без сомнений, породит самые различные приложения, не только изображений распознавания и системы речи. Отыщем в памяти викторию группы г-на Хинтона в области фармацевтики. А Питер Ли из «Майкрософта» информирует о первых удачах глубокого обучения в области машинного зрения, другими словами разработок, которые связаны с автопилотом и производственным контролем.
Быть может, покажутся личные датчики, талантливые угадать надвигающиеся неприятности со здоровьем, а сенсоры, установленные по всему городу, будут предвидеть пробки на дорогах.
В том месте, где решается такая сложная задача, как моделирование работы людской мозга, не нужно ожидать того, что какая-то одна разработка справится со всеми проблемами. «Глубокое обучение — это только на уникальность успешная метафора познания мира», — говорит господин Дин.
Подготовлено по данным Technology Review.
Создатель: Дмитрий Целиков
Случайная статья:
- Android m победит “жор” батареи: интервью с google developer expert russia
- Марсоход curiosity, домашняя винокурня и другие гаджеты от участников mediatek labs на geek picnic
Что произойдёт, когда компьютеры станут умнее нас? — Ник Бостром (Rus Sub)
Похожие статьи:
-
Квантовый компьютер стал на две секунды ближе к реальности
Михаил Лукин из Русского квантового центра осуществил прорыв в постройке квантового компьютера. Ученые смогли достаточно продолжительно сохранить данные…
-
Ibm watson стал умнее и доступнее через облачный сервис
Компания IBM сказала, что по окончании очередного обновления совокупность ИИ Watson стала лучше осознавать естественный язык и сейчас дешева в качестве…
-
Российский сервис rate and goods стал умнее и социальнее
День назад российский стартап RateGoods выпустил масштабное обновление одноимённой платформы, перевоплотив её из несложного приложения – сканера…