Искусственный интеллект. Почему он никогда не будет создан?




Во-первых разработчиками ставится под сомнение существование семантики, и авторам этого сомнения кажется, что любое мышление есть всего лишь манипулирование синтаксисом. Работа над ИИ уводит человечество в сторону поиска быстрой реализации прихоти эго. Хотя изначально ИИ должен сделать человека счастливым. Этот вопрос не решается вследствие того, что сами исследователи ИИ не знают что такое счастье. ИИ не должен решать проблемы эго в своем ядре. Да, на периферии работы ИИ вопросы эгоизма должны быть учтены, но внутри должны быть только потребности робота, аватара, скелета.
AI определяется как поле “исследования и разработки интеллектуальных агентов”, где интеллектуальный агент является системой, которая воспринимает свое окружение и принимает меры, которые максимизируют свои шансы на успех. Поиск ИИ был основан на утверждении, что центральная суть человека, интеллект - мудрость человека разумного - можно описаннать в той степени, что он может быть смоделировано на компьютере. В этой связи возникает философские вопросы о природе ум и этика создания искусственных существ, наделенных, подобных человеческим интеллектом, вопросы, которые были рассмотрены в мифах, фантастике и философии с древнейших времен.
Проблемы ИИ включают в себя такие вопросы как: Вычитка текста, рассуждение, решение проблем; Представление знаний, планирование и обучение; обработка естественного языка (общение), восприятие, движение и манипуляции; Представления долгосрочных целей, подготовки социального интеллекта и вопросы творчества. Инструменты ИИ включают в себя вопросы поиска и оптимизация, логики, вероятностные методы для неопределенных рассуждений. Вопросы классификаторов и статистических методов обучения. Вопросы нейронных сетей, теории управления, языков и оценки прогресса.
Вопрос «Может ли машина мыслить?» был поставлен Аланом Тьюрингом в 1950 году. Две основных точки зрения на этот вопрос носят названия гипотез сильного и слабого искусственного интеллекта. Алан Тьюринг, описывает процедуру, с помощью которой можно будет определить момент, когда машина сравняется в плане разумности с человеком, получившую название теста Тьюринга. Стандартная интерпретация этого теста звучит следующим образом: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор»
Существовало мнение, что попытки пройти тест Тьюринга просто препятствуют более плодотворным исследованиям.
Кита́йская ко́мната — мысленный эксперимент, описанный Джоном Сёрлем, в котором критикуется возможность моделирования человеческого понимания, в частности естественного языка, путем создания «искусственного интеллекта». По сути является критикой теста Тьюринга.
Возьмём язык, которого вы не понимаете. Теперь предположим, что меня поместили в комнату, с корзинами, полных китайских иероглифов. Мне дали учебник на английском языке, в котором правила сочетания символов китайского языка, правила можно применять, зная лишь форму символов, понимать значение символов необязательно. Например: «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два». Находящиеся за дверью люди, понимающие китайский язык, передают в комнату наборы символов. В ответ я манипулирую символами согласно правилам и передаю обратно другие наборы символов. В данном случае книга правил есть «компьютерная программа». Люди, написавшие её, — «программисты», а я играю роль «компьютера». Корзинки, наполненные символами, — это «база данных»; наборы символов, передаваемых в комнату, это «вопросы», а наборы, выходящие из комнаты, это «ответы». Книга правил написана так, что мои «ответы» на «вопросы» не отличаются от ответов человека, свободно владеющего китайским языком. Люди снаружи, могут передать непонятные мне символы, означающие; «Какой цвет вам больше всего нравится?» В ответ, выполнив предписанные правилами, я выдам символы мне также непонятные, что мой любимый цвет синий, но мне также очень нравится зелёный. Таким образом, я выдержу тест Тьюринга на понимание китайского языка. Но все же на самом деле я не понимаю ни слова по-китайски. К тому же я не могу научиться этому языку в рассматриваемой системе, поскольку не существует способа, с помощью которого я мог бы узнать смысл символа. Я манипулирую символами, но не могу придать им смысла. Этот пример соответствует системе быстрого обучения формальным знаниям для решения типовых задач, которая сегодня стала вытеснять в коммерческих школах аналитическую систему образования.
В 1984 году Сёрль формулирует свою идею более формализовано. Он рассматривает следующие предпосылки:

• Предпосылка 1: Мозг порождает разум.
• Предпосылка 2: Синтаксиса недостаточно для существования семантики.
• Предпосылка 3: Компьютерная программа полностью определяется своей синтаксической структурой.
• Предпосылка 4: Человеческий разум оперирует смысловым содержанием (семантикой).
И делает заключения:
• Заключение 1: Программы не являются сущностью разума и их наличия недостаточно для наличия разума.
• Заключение 2: Тот способ, посредством которого человеческий мозг на самом деле порождает ментальные явления, не может сводиться лишь к выполнению компьютерной программы.
• Заключение 3: То, что порождает разум, должно обладать по крайней мере причинно-следственными свойствами, эквивалентными соответствующим свойствам мозга.

Фактически он опирается на тот факт, что любой мозг является сложной нейронной сетью с глубокой вложенностью, взаимодействующей с системой других аналогичных сетей, и работа всей этой системы, являющейся “большой” системой с бесконечным недетерминированным количеством состояний, по сути и порождающая разум отдельного субъекта, не может быть смоделирована с помощью конечных автоматов любого типа.
Мысленный эксперимент вызвал интенсивную дискуссию среди учёных. Были выдвинуты различные доводы против результатов, полученных Сёрлем:

• Некоторые критики считают, что тест Тьюринга выдержал не робот, а система, состоящая из комнаты, книги правил и робота. Сёрль, по их мнению, отвлекает внимание от этого факта, концентрируясь на одном из компонентов системы, выполняющем в данном случае чисто механическую работу. Система из книги правил, человека и комнаты, по их мнению, является разумной и понимает китайский язык.
• Другие ставят под сомнение само существование семантики, по мнению авторов этой гипотезы, любое мышление есть всего лишь манипулирование синтаксисом, аналогичное осуществляемому в компьютерах.
Сема́нтика изучает смысловое значение единиц языка. В качестве инструмента изучения применяют семантический анализ. Если дойти до сути вопросов, поднимаемых в науке семантике и ответить на них проблема ИИ решается. Но с современным подходом это невозможно. Наш алгоритм предлагает в корне изменить его. Все проблемы решатся, если заложить в методику исследований новую базу. Не базу математических исследования абстрактных цифр, а базу скриптовой работы мозга.



Поделиться:




Поиск по сайту

©2015-2024 poisk-ru.ru
Все права принадлежать их авторам. Данный сайт не претендует на авторства, а предоставляет бесплатное использование.
Дата создания страницы: 2021-04-19 Нарушение авторских прав и Нарушение персональных данных


Поиск по сайту: