Книга: Эволюция разума

Самоассоциация и инвариантность

<<< Назад
Вперед >>>

Самоассоциация и инвариантность

В первой главе я уже писал о том, что нам удается распознать образ, даже если он представлен не целиком или в искаженном виде. Первая способность, называемая самоассоциацией, заключается в умении ассоциировать образ и его часть. Структура каждого распознающего модуля позволяет реализовать эту функцию.

В процессе распознавания каждый сигнал поднимается от распознающего модуля более низкого уровня к модулю более высокого уровня, и эта связь имеет определенный «вес», указывающий на важность этого конкретного элемента в общем образе. Более важные элементы имеют больший вес при распознавании образа. Таким образом, бородка Линкольна, бачки Пресли и знаменитый высунутый язык Эйнштейна, по-видимому, имеют большой вес в тех образах, с которыми у нас ассоциируются эти знаменитости. Распознающие модули рассчитывают фактор вероятности, учитывающий параметр значимости элемента. Таким образом, общая вероятность распознавания снижается, если один или несколько элементов отсутствуют, но порог узнавания все же может быть преодолен. Как я уже говорил, расчет общей вероятности присутствия образа сложнее, чем расчет просто взвешенной суммы, в которой величина параметров тоже учитывается.

Если распознающий модуль получил сигнал от модуля более высокого уровня об «ожидании» образа, пороговое значение понижается (то есть его легче достичь). В альтернативном варианте такой сигнал может просто прибавляться к остальным входным сигналам, компенсируя недостающий элемент. Это происходит на всех уровнях, так что такой образ, как лицо, находящийся на несколько уровней выше базового, может быть распознан даже при отсутствии нескольких элементов.

Способность распознавать трансформированные образы называется инвариантностью и реализуется четырьмя способами. Во-первых, важные превращения образа происходят до того, как сигналы попадают в новую кору. О передаче сигнала от кожи, глаз и ушей мы поговорим в разделе «Сенсорное восприятие».

Второй способ основан на избыточности информации, хранящейся в новой коре. Особенно если речь идет о важных или распространенных вещах, мы многократно встречаемся с разными вариантами и ракурсами одного и того же образа. Поэтому в новой коре независимо хранится и обрабатывается множество вариантов таких образов.

Третий и самый мощный способ заключается в способности объединять два списка. В одном может содержаться набор трансформаций, которые способны происходить с определенной категорией образов. Новая кора применит этот список возможных трансформаций к другому образу. Именно так мы понимаем речевые приемы типа метафор и сравнений.

Например, мы постепенно узнаём, что некоторые фонемы в разговорной речи могут выпадать (например, «кода» вместо «когда»). Если затем мы слышим другое слово (например, «всегда»), то узнаём его, даже если в нем отсутствует одна из фонем («вседа»), поскольку уже знакомы с явлением выпадения некоторых фонем. Другой пример. Мы знаем, что какой-то актер любит подчеркивать (увеличивать) размеры части лица (например, носа). Это позволяет нам узнать знакомое лицо, с которым проделан такой же трюк, даже если раньше с этим лицом подобные модификации не производились. Некоторые варианты актерского грима подчеркивают те самые черты, которые распознаются распознающими модулями новой коры. На этом же строится прием карикатуры.

Четвертый метод основан на величине параметров и позволяет одному модулю кодировать множество примеров образа. Например, мы много раз слышали слово steep. Модуль, ответственный за распознавание этого слова в речи, может кодировать множество примеров его произношения с разной длительностью [E]. Если все модули, распознающие слова с [E], обладают этим общим свойством, такая вариабельность должна быть зарегистрирована в самом образе [E]. Однако разные слова с этим звуком (а также со многими другими фонемами) могут различаться по параметру ожидаемой вариабельности. Например, слово peak (читается «пик») не содержит фонемы [E], как в слове steep.

<<< Назад
Вперед >>>

Генерация: 0.047. Запросов К БД/Cache: 0 / 0
Вверх Вниз