Простыми словами
Продолжаем разговор )))
Не прошло и года.

Значит, мы остановились на тесте Тьюринга.

(Всё это вольный пересказ пассажей книги Роджера Пенроуза "Новый ум короля").

Существует такая точка зрения в искусственном интеллекте, которая называется "сильный ИИ". Сторонники сильного ИИ утверждают, что всю мыслительную активность человека можно записать с помощью алгоритма. Понятно, что алгоритм этот ОЧЕНЬ, ЧРЕЗВЫЧАЙНО, сложен, но однако же, если это принципиально возможно, то значит рано или поздно станет осуществимо и технически.
Такой алгоритм, уж вне всяких сомнений пройдет тест Тьюринга.
И, более того, сторонники сильного ИИ уверены, что как только этот алгоритм будет запущен, он начнет сам по себе испытывать чувства, обладать сознанием, БЫТЬ РАЗУМОМ.

Но, — говорит Пенроуз, и с ним трудно не согласиться, — "разумные состояния и алгоритмы вряд ли можно считать идентичными в этом контексте".

Наиболее остро критиковал эту точку зрения американский философ Джон Серл.

В качестве примера он рассматривает компьютерную программу, разработанную Роджером Шенком. Задача этой программы состояла не просто в ведении осмысленного диалога, но в "понимании ситуаций".
То есть программе давали простые истории, после чего просили сделать небольшое резюме. Вот, к примеру: "Мужчина вошел в ресторан и заказал гамбургер. Когда гамбургер принесли, оказалось, что он сильно подгорел, и рассерженный мужчина выскочил из ресторана, не заплатив по счету и не оставив чаевых". В качестве другого примера следующая история: "Мужчина вошел в ресторан и заказал гамбургер. Когда гамбургер принесли, мужчина остался им очень доволен. И, покидая ресторан, он дал официанту щедрые чаевые перед тем, как заплатить по счету".
Чтобы проверить «понимание» этих историй компьютером, его попросили определить, съел ли мужчина гамбургер в каждом отдельном случае (факт, который не был упомянут в тексте явным образом). На этот простой вопрос компьютер может дать ответ, совершенно не отличающийся от того, что дал бы человек: «нет» в первом случае и «да» — во втором.
То есть в этом узком смысле машина уже прошла тест Тьюринга.

И вот вопрос: действительно ли подобный положительный результат указывает на истинное понимание, демонстрируемое компьютером, или заложенной в него программой?
Как аргумент в пользу отрицательного ответа Серл и предложил свою концепцию "китайской комнаты".
Скоро я уже до нее доберусь )))

@темы: Искусственный интеллект, Amicus Plato

Комментарии
22.10.2007 в 16:29

I seem to be innocent...
Amicus Plato
В принципе, всякое возможно.
Сто лет назад умные ученые люди с уверенностью говорили, что невозможно построить вычислительные машины, обладающие такими мощными способностями ))
22.10.2007 в 20:10

Простыми словами
Minority одно дело: невозможно потому что нет технических средств, а другое: невозможно принципиально.
Вот например: невозможно ничего охладить до температуры ниже абсолютного нуля. И не будет возможно никогда.
Вот это постулируется с той же степенью уверенности.
23.10.2007 в 18:37

I seem to be innocent...
Amicus Plato
Когда-то считалось принципиально невозможным существование корней из отрицательных чисел.. Я не права?) Возможно, просто в один прекрасный день наша теория расширится и будет включать в себя решение этих задач..
23.10.2007 в 23:23

Простыми словами
Minority юношеский максимализм )))))))))
Не стану тебя переубеждать, ибо: и не хочу, и нечем ))))
24.10.2007 в 10:02

I seem to be innocent...
Amicus Plato
Скорее даже не максимализм, а желание, шоб оно так и было :D