ИИ не такой умный как кажется…
Само название — искусственный интеллект, практически дает нам сравнить наши человеческие способы мышления с поведением алгоритмов.
«Такая риторика в лучшем случае вводит в заблуждение, а в худшем случае просто опасна»
Ирвинг Владавски-Бергер работал в IBM с 1970 по 2007 год и был стратегическим советником Citigroup, HBO и Mastercard и приглашенным профессором в Имперском колледже. Он работает в MIT с 2005
«Интеллект — это очень общая умственная способность, которая, включает способность рассуждать, планировать, решать проблемы, мыслить абстрактно, понимать сложные идеи, быстро учиться и учиться на опыте. Это не просто книжное обучение, узкие академические навыки или умение сдавать экзамены. Это отражение более широкой и глубокой способности к пониманию нашего окружения — «цепляние», «осмысление» вещей или «выяснение», что делать ».
С другой стороны, специализированный интеллект, способный эффективно решать четко определенные конкретные задачи в данной среде, является видом целенаправленного интеллекта, который является частью многих человеческих заданий. Умные машины стали достаточно опытными в решении множества таких задач. Технологии искусственного интеллекта приближаются или превосходят человеческие показатели в области зрения, распознавания речи, языкового перевода, раннего выявления и диагностики различных форм рака и других возможностей, которые когда-то считались исключительной областью людей.
Машинное обучение играет центральную роль в последних и последующих достижениях. Машинное обучение выросло из десятилетий исследований нейронных сетей — метода, позволяющего машинам учиться на основе данных, которые смоделированы на том, как биологический мозг , состоящий из кластеров нейронов, учится решать проблемы. Каждый узел в нейронной сети AI связан со многими другими такими узлами, и связи могут быть статистически усилены или ослаблены на основе данных, используемых для обучения системы. Самые последние достижения ИИ были основаны на глубоком обучении алгоритмы, статистический метод для классификации образцов с использованием очень больших наборов обучающих данных и многослойных глубоких нейронных сетей, где каждый последующий слой использует выходные данные предыдущего уровня в качестве входных данных.
«Термин « нейронные сети » поднимает образ машины, похожей на мозг, и принимает решения»
Хотя они и вдохновлены анатомией человеческого мозга, глубокие нейронные сети хрупки , неэффективны и близоруки, когда их производительность сравнивается с характеристиками реального человеческого мозга.
-Хрупкое-
Глубокие нейронные сети легко обмануть с небольшими возмущениями для тренировочных входов. После добавления небольшого количества шума к тренировочному образу алгоритмы глубокого обучения были обмануты, чтобы обмануть панду как гиббона, неправильно классифицировать зебр как лошадей, бананов как тостеров и другие абсурдные комбинации. Это основное различие между биологическими и искусственными нейронными сетями создает серьезную проблему для применимости глубоких нейронных сетей в таких областях, как клиническая медицина и автономные транспортные средства.
-Неэффективное-
Глубокие нейронные сети требуют большого количества данных и неэффективны, и для их изучения необходимы огромные объемы обучающих примеров, чтобы человек сразу обнаружил очевидные. Интеллектуальный уровень требует способности выходить за рамки данных и алгоритмов глубокого обучения. Люди могут создавать модели мира в том виде, в котором они его воспринимают, включая повседневные знания здравого смысла , а затем использовать эти модели для объяснения своих действий и решений. Трехмесячные дети имеют более практическое понимание окружающего мира, чем любое приложение ИИ, когда-либо созданное.
-Близорукий-
Глубокое обучение оказалось странно близоруким по сравнению с человеческим познанием. Он может видеть много отдельных деревьев, но не может понять весь лес. Например, в классификации изображений алгоритмы глубокого обучения ищут общие признаки в промежуточных слоях анализируемых изображений, но не могут понять взаимосвязи между этими функциями. Таким образом, в то время как человек может инстинктивно сказать, что облако, которое может иметь форму и характеристики собаки, не является настоящей собакой, алгоритму глубокого обучения будет трудно различить внешний вид и ощущение того, что он действительно есть .
«Было бы ошибкой утверждать, что эти алгоритмы воссоздают человеческий интеллект; вместо этого они вводят какой-то новый способ логического вывода, который в некоторых отношениях превосходит нас, а в других — нет. Проблемы возникают, когда люди верят метафорам, особенно в таких областях, как уголовное правосудие, кредитный скоринг и военные операции, которые «включают решения с высокими ставками, оказывающие значительное влияние на жизнь тех, кто в них участвует».
Традиционно мы полагаемся на людей-экспертов для принятия таких решений по трем ключевым причинам: точность , доверие и моральная ответственность . Может ли искусственный мозг проявлять эти качества?
Можно утверждать, что ИИ соответствует качеству точности, хотя «степень, в которой ИИ фактически соответствует или превосходит человеческие качества , является эмпирическим вопросом, который должен решаться в каждом конкретном случае». Доверие более проблематично.
Трудно объяснить причину, лежащую в основе решения, основанного на глубоком обучении, потому что оно сильно отличается от рассуждений, используемых людьми. Наконец, хотя можно сказать, что алгоритмы несут ответственность за свои результаты, присвоение им какой-либо моральной ответственности не имеет смысла в обозримом будущем.
