Составители:
Рубрика:
26
не улавливая весьма существенных различий между разумными
людьми и разумными машинами.
Сегодня уже существуют многочисленные варианты
интеллектуальных систем, которые не имеют цели, но имеют
критерии поведения: генетические алгоритмы и имитационное
моделирование эволюции. Поведение этих систем выглядит таким
образом, как будто они имеют различные цели и добиваются их.
Ежегодно производится соревнование между разговаривающими
программами, и наиболее человекоподобной, по мнению судей,
присуждается приз Лебнера (Loebner).
Существует также приз для программы, которая, по мнению судей,
пройдёт тест Тьюринга. Этот приз ещё ни разу не присуждался.
В заключение отметим, что и сегодня тест Тьюринга не потерял своей
фундаментальности и актуальности, более того – приобрел новое звучание в
связи с возникновением Internet, общением людей в чатах и на форумах под
условными никами и появлением почтовых и других программ-роботов,
которые рассылают спам (некорректную навязчивую рекламу и другую
невостребованную информацию), взламывают пароли систем и пытаются
выступать от имени их зарегистрированных пользователей и совершают
другие неправомерные действия [1].
Таким образом, возникает задачи [1]:
- идентификации пола и других параметров собеседника (на эту
возможность применения своего теста указывал и сам Тьюринг);
- выявления писем, написанных и посланных не людьми, а также
такого автоматического написания писем, чтобы отличить их от
написанных людьми было невозможно. Так что антиспамовый
фильтр на электронной почте тоже представляет собой что-то вроде
теста Тьюринга.
Не исключено, что скоро подобные проблемы (идентификации:
человек или программа) могут возникнуть и в чатах. Что мешает сделать
сетевых роботов типа программы «Элиза», но значительно более
совершенных, которые будут сами регистрироваться в чатах и форумах
участвовать в них с использованием слов и модифицированных предложений
других участников? Простейший вариант – дублирование тем с других
форумов и перенос их с форума на форум без изменений, что мы уже иногда
наблюдаем в Internet (например: сквозная тема про «Чакра-муни»).
На практике чтобы на входе системы определить, кто в нее входит,
человек или робот, достаточно при входе предъявить для решения
простенькую для человека, но требующую огромных вычислительных
ресурсов и системы типа неокогнитрона Фукушимы, задачку распознавания
случайных наборов символов, представленных в нестандартных начертаниях,
не улавливая весьма существенных различий между разумными людьми и разумными машинами. Сегодня уже существуют многочисленные варианты интеллектуальных систем, которые не имеют цели, но имеют критерии поведения: генетические алгоритмы и имитационное моделирование эволюции. Поведение этих систем выглядит таким образом, как будто они имеют различные цели и добиваются их. Ежегодно производится соревнование между разговаривающими программами, и наиболее человекоподобной, по мнению судей, присуждается приз Лебнера (Loebner). Существует также приз для программы, которая, по мнению судей, пройдёт тест Тьюринга. Этот приз ещё ни разу не присуждался. В заключение отметим, что и сегодня тест Тьюринга не потерял своей фундаментальности и актуальности, более того – приобрел новое звучание в связи с возникновением Internet, общением людей в чатах и на форумах под условными никами и появлением почтовых и других программ-роботов, которые рассылают спам (некорректную навязчивую рекламу и другую невостребованную информацию), взламывают пароли систем и пытаются выступать от имени их зарегистрированных пользователей и совершают другие неправомерные действия [1]. Таким образом, возникает задачи [1]: - идентификации пола и других параметров собеседника (на эту возможность применения своего теста указывал и сам Тьюринг); - выявления писем, написанных и посланных не людьми, а также такого автоматического написания писем, чтобы отличить их от написанных людьми было невозможно. Так что антиспамовый фильтр на электронной почте тоже представляет собой что-то вроде теста Тьюринга. Не исключено, что скоро подобные проблемы (идентификации: человек или программа) могут возникнуть и в чатах. Что мешает сделать сетевых роботов типа программы «Элиза», но значительно более совершенных, которые будут сами регистрироваться в чатах и форумах участвовать в них с использованием слов и модифицированных предложений других участников? Простейший вариант – дублирование тем с других форумов и перенос их с форума на форум без изменений, что мы уже иногда наблюдаем в Internet (например: сквозная тема про «Чакра-муни»). На практике чтобы на входе системы определить, кто в нее входит, человек или робот, достаточно при входе предъявить для решения простенькую для человека, но требующую огромных вычислительных ресурсов и системы типа неокогнитрона Фукушимы, задачку распознавания случайных наборов символов, представленных в нестандартных начертаниях, 26
Страницы
- « первая
- ‹ предыдущая
- …
- 25
- 26
- 27
- 28
- 29
- …
- следующая ›
- последняя »