Неизбежно | страница 34



. Нужен мощный двигатель и много топлива. Ракетный двигатель – это алгоритм обучения, а топливо – это огромный объем данных, который требуется для работы этого алгоритма».

3. Более эффективные алгоритмы

Цифровые нейронные сети были изобретены в 1950-х годах, но у специалистов в области теории вычислительных машин и систем ушло несколько десятилетий, чтобы понять, как «приручить» астрономически огромные комбинаторные взаимоотношения между миллионами – или сотней миллионов – нейронов. Задача состояла в том, чтобы организовать нейронные сети в слои. Возьмем, например, относительно простую задачу распознавания того, что лицо – это лицо. Когда группа элементов в нейронной сети узнаёт определенный образец, например изображение глаза, этот результат («Это глаз!») передается на уровень выше, где уже может произойти совмещение двух глаз, и этот кусок значимой информации передастся на следующий уровень иерархической структуры, где он соотносится со следующим образцом, например носом. Для узнавания лица человека может потребоваться несколько миллионов этих узлов (каждый из которых производит вычисления, использующиеся соседними узлами), организованных в многоуровневую систему, вплоть до 15 уровней. В 2006 году известный своими исследованиями в области искусственных нейросетей британский информатик Джеффри Хинтон{38}, работавший на тот момент в Университете Торонто, внес ключевую поправку в этот метод, который он назвал «глубинное обучение»{39}. Ему удалось математически оптимизировать результаты на каждом уровне, чтобы процесс обучения продвигался быстрее по мере перехода от одного слоя к другому. Несколько лет спустя алгоритмы глубинного обучения невероятно ускорились, когда их перенесли на графические процессоры. Сам по себе код глубинного обучения недостаточен для генерации сложного процесса логического мышления, тем не менее он представляет собой основной компонент всех действующих искусственных интеллектов, включая суперкомпьютер Watson от IBM, искусственный разум от DeepMind, поисковую систему Google и алгоритмы работы, которые использует Facebook.

Этот «идеальный шторм» из дешевой параллельной вычислительной обработки информации, больших данных и усовершенствованных алгоритмов глубинного обучения обеспечил «неожиданный» успех искусственного интеллекта, к которому он шел почти 60 лет. Подобная конвергенция позволяет утверждать, что при сохранении действующих технологических трендов (а у нас нет причин полагать, что они могут измениться) дальнейшее развитие искусственного интеллекта будет продолжаться.