Cтарший вице-президент и директор по исследованиям компании IBM доктор Джон Келли написал книгу «Умные машины», которая выйдет в свет ближайшей осенью. Она посвящёна созданию целой экосистемы когнитивных вычислений — технологий будущего, способных взаимодействовать с людьми более естественным образом. Речь идёт о разработке архитектуры и алгоритмов, имитирующих отдельные способности мозга по восприятию данных различного вида, принятию решений и самообучению по результатам анализа их эффективности.
Джон Келли пишет, что современные люди сталкиваются с постоянным ростом объёмов информации. Если раньше казалось, что это благо, помогающее развитию общества, то сейчас стало вполне очевидно: чем больше данных, тем больше проблем. Мы попросту не успеваем вникнуть в интересующие нас вопросы как следует. Поэтому люди часто принимают необдуманные решения, ознакомившись только с одной точкой зрения. За недостатком времени анализ новых данных откладывается, а затем они вспоминаются уже как проверенная информация.
Директор может разгрузить себя, поручив большую часть обработки данных секретарю, ассистентам и даже целому штату аналитиков. Обычным людям всё сложнее противостоять давлению инфосреды. Когнитивные компьютерные технологии способны помочь в будущем как руководителям крупных компаний, так и обывателям. Умный поиск, семантический анализ, распознавание образов, прокладка маршрута с учётом пробок и оценка состояния водителя в фоне – это всё только начало.
Среди действующих когнитивных систем наиболее известен суперкомпьютер IBM Watson с программой искусственного интеллекта, созданной под руководством Дэвида Феруччи в рамках проекта DeepQA. Этот суперкомпьютер обыграл в 2011 году двух чемпионов в викторине Jeopardy. В ролике ниже приводятся пояснения о работе его алгоритма и необычной структуре использованной базы данных.
Как и в случае с победившим Каспарова суперкомпьютером Deep Blue, для IBM это была лишь демонстрация возможностей. Реальная область практических применений будет совершенно иной.
Специалисты компании рассчитывают в ближайшие двадцать лет создать компактную или даже носимую систему, имитирующую работу миллиардов нейронов и триллионов синапсов. Применений для неё найдётся масса, как в гражданском, так и в военном секторе.
Общественности говорят в основном о медицинских аспектах применения. К примеру, указывается, что с помощью такого электронного ассистента слабовидящие люди смогут не только лучше ориентироваться, но и жить более полноценной жизнью. У здорового человека мозг обрабатывает терабайты графических данных ежедневно, и заменить функции зрительной коры не сможет ни один носимый компьютер классической архитектуры.
Основная проблема целой отрасли в том, что архитектура компьютеров и базовые подходы к программированию сформировались в ту пору, когда на ЭВМ решали довольно узкий круг прикладных математических задач. Они были вычислительно сложными, а их постановкой занимался штат опытных программистов.
От современных компьютеров требуется гораздо больше. Всевозможные «умные устройства» должны большей частью самостоятельно получать и успевать обрабатывать массу разнородных данных. Результат требуется выдавать через дружественный интерфейс, чтобы помочь человеку в его повседневной жизни или просто развлечь его.
Для этого компьютерная техника должна постоянно развиваться в направлении «очеловечивания» и всё больше опираться на алгоритмы самообучения. Иными словами – как можно точнее копировать суть работы мозга, сохраняя запредельную скорость обработки числовых данных.
Компания IBM при поддержке Корнелльского университета и DARPA уже многие годы разрабатывает такой искусственный мозг. До сих пор в научном мире нет единого мнения о многих аспектах функционирования неокортекса. Поэтому задача не состоит в том, чтобы воссоздать на массиве транзисторов работу коры головного мозга в деталях. Скорее, есть понятное желание сотворить на базе компьютерных технологий нечто работающее похожим образом. Требуется не более быстрый автомат, а гибкая вычислительная система, хотя бы частично проявляющая свойства мышления живых организмов.
Значимых успехов в этой области удалось достичь в прошлом году – тогда с помощью второго по мощности суперкомпьютера из списка TOP 500 сымитировали работу ста триллионов синапсов. Конечно, эмуляция происходила с большой долей условности, а скорость обработки сигналов была оценена в полторы тысячи раз ниже, чем у реальной группы нейронов. Более быстрая и точная имитация работы всего нескольких нейронов по-прежнему требует десятки тысяч процессорных ядер.
В IBM Research стараются научить компьютеры не просто считать быстрее, но и проявлять отдельные элементы мыслительного процесса. По мнению исследователей, компьютеры будущего не должны слепо следовать алгоритму, как это было до сих пор. Они станут учитывать множество второстепенных факторов, свой прошлый опыт и будут даже немного колебаться в принятии решений – совсем как человек.
Агентство перспективных оборонных научно-исследовательских разработок США щедро финансирует связанную с этой инициативой программу SyNAPSE (Системы нейроморфной адаптивной масштабируемой пластичной электроники). Её главная цель – обеспечить компьютеры теми способностями, которые у человека пока ещё развиты лучше.
Особенно это касается восприятия, умения принимать решения в условиях жёсткого дефицита достоверных данных и придумывать нестандартные выходы из ситуаций, в которых не приходилось бывать прежде.
Интерес DARPA вполне понятен. Сегодня управляемые операторами БПЛА уже показали свою эффективность. Осталось убрать операторов и связанные с ними задержки в передаче управляющих команд, чтобы Пентагон получил более совершенные и самодостаточные образцы боевой авиации.
В IBM Research убеждены, что так называемые когнитивные вычислительные системы найдут самое широкое применение и вскоре полностью изменят наши представления о компьютерной технике, которая до сих пор базируется на архитектуре фон Неймана.
Впервые о проекте открыто заговорили в 2008 году. Через год коллектив IBM Research отчитался о завершении подготовительного этапа – так называемой «фазы 0», на которой был сформулирован план исследований и решены общие вопросы.
К 2011 году был завершён первый этап проекта, заключавшийся в разработке фундаментальной архитектуры вычислительных блоков, эмулирующих работу нейронов. Ключевым требованием была масштабируемость архитектуры, поскольку от отдельных групп нейронов по мере роста доступной вычислительной мощности требовалось переходить к имитации работы целых отделов коры головного мозга.
Сегодня коллектив IBM Research говорит о новых успехах. Команде удалось провести объёмное исследование под названием «крупномасштабное корковое моделирование». Оно было сфокусировано на таких особенностях работы мозга, как сверхнизкий уровень энергопотребления и высочайшая плотность хранения данных. По результатам длительного эксперимента был создан новый алгоритм, позволяющий моделировать работу мозга более точно и ценой меньших затрат.
На его основе под руководством ведущего специалиста Дхармендра Модха был разработан язык программирования, ориентированный на создание приложений для когнитивных вычислений. Дальнейший этап — создание полноценной среды разработчика, поддерживающей весь цикл программирования — от проектирования до отладки и развертывания нового поколения приложений, способных частично имитировать свойства мозга. В конце неделе IBM представит свои разработки на Международной совместной конференции по нейронным сетям в Далласе.
Источник: computerra.ru