August 24th, 2010

(no subject)

Ещё про смену парадигмы. Не бейте ногами, если я вдруг неправа. :))

Такое ощущение, что очень важны вероятностные модели. Не на прикладном этапе, а именно при попытках объяснить фундаментальные теоретические вещи.
Когда в алгоритм, изучающий (простите мне кальку с английского) формальные грамматики добавляют вероятностность, он сразу начинает изучать более сложные грамматики на меньшем числе примеров. И совсем без отрицательных данных. У Артура Кларка хорошие примеры были и в декабре книга выйдет.
Я, конечно, понимаю, что естественный язык и формальные грамматики - это не совсем одно и то же. Но способность воспринимать формальные грамматики у аграмматиков все же отрубается.
Человеки из МИТа и Стэнфорда с вероятностным лямбда-исчислением к похожему пришли, только они пытались напрямую отдельные языковые и когнитивные фишки моделировать.
То есть, ключевое: добавление вероятности компенсирует отсутствие примеров того, как неправильно. И нехватку примеров того, как правильно, тоже отчасти компенсирует.

А это же любимый хомскианский аргумент за универсальную грамматику - poverty of stimulus. У ребенка очень мало данных о языке, у ребенка почти совсем нет данных о том, что неправильно, но он каким-то образом язык выучивает. Значит у него есть некое врожденное представление о языке, ура генеративной лингвистике. Набор принципов и параметров. Мне идея набора параметров кажется немного странной.

Возможно, это моя личная любовь к теорверу, конечно.
И то, что я копаю подобное уже год, а тут вижу у других и чрезмерно радуюсь.

Unless you are a crazy radical nativist... (c) кто-то из преподаваталей