Искусственный интеллект на службе бизнеса | страница 42
Вторая причина называется «обратной причинностью». Вы читаете эту книгу потому, что у вас уже есть прогностическая машина или вы собираетесь в скором времени приобрести ее. Не книга привела к применению технологий, а применение технологий (в настоящее время), наоборот, привело к чтению книги.
Третья причина называется «пропущенной переменной». Вы интересуетесь техническими новинками и занимаете руководящую позицию, поэтому решили прочитать книгу. В работе вы применяете новые технологии, в том числе прогностические машины. В этом случае ваша склонность к технологиям и управлению становится причиной и чтения книги, и использования прогностических машин.
Причина не всегда существенна. Если нужно знать, воспользуется ли читатель прогностическими машинами, то неважно, что будет причиной, а что – следствием. Если вы видите человека, читающего эту книгу, можете обоснованно прогнозировать, что он внедрит прогностические машины в свой рабочий процесс.
Но иногда причина все же имеет значение. Вы порекомендуете эту книгу друзьям в случае, если благодаря ей повысите свое мастерство в качестве менеджера в сфере прогностических машин. Что вы хотели бы узнать? Сначала вы прочитаете книгу. Затем попробуете заглянуть в будущее и посмотреть, насколько хорошо пойдет работа с ИИ. Предположим, вы увидели радужные перспективы и замечательно преуспели на поприще прогностических машин: они играют главную роль в вашей организации, и вы добились больших успехов, чем в самых смелых мечтах. Можно ли сказать, что книга привела вас к этому?
Нет.
Если вы хотите убедиться в том, что такое влияние оказала именно книга, необходимо знать, что случилось бы, если бы вы ее не читали. Но таких данных у вас нет. Следует рассмотреть «отсутствие вмешательства», как говорят экономисты и статистики: что произошло бы, если бы вы предприняли иные действия. Для утверждения, что действие служит причиной результата, требуется два прогноза: первый – что будет, если предпринять это действие, и второй – что будет, если предпринять другое действие. Но это невозможно. У вас никогда не появится данных о последствиях того, чего вы не делали[57].
Это хроническая проблема прогностических машин. В книге Deep Thinking Гарри Каспаров обсуждает похожие проблемы первых алгоритмов машинного обучения в шахматах: «В начале 1980-х Мичи с коллегами написали экспериментальную шахматную программу машинного обучения, основанную на данных. Результат оказался очень забавным. Они загрузили в машину сотни тысяч позиций гроссмейстерских игр в надежде, что она разберется, какие ходы удачные и какие нет. Сначала вроде бы все получалось. Анализ позиций был точнее, чем у других программ. Проблемы начались, когда машина начала сама играть в шахматы. Она сделала несколько ходов, пошла в атаку и сразу же пожертвовала ферзем! Через пару ходов она проиграла, отдав ферзя без всякой причины. Почему? Когда гроссмейстер жертвует ферзем, обычно это ловкое и продуманное решение. Обучаясь на одних только гроссмейстерских играх, машина сделала вывод, что выигрывает тот, кто остается без ферзя!»