Bishop Gregory (hgr) wrote,
Bishop Gregory
hgr

Categories:

критическая агиография

(в этом разделе -- математическое доказательство того, что молчать лучше всегда, а не только тогда, когда советует Витгенштейн. доказательство обратного будет в следующих разделах)

2.6.4. Порождение нарратива как рост энтропии и рассеивание информации

 

Рассмотрение порождения нарратива как мультипликативного каскадного процесса представляет, на наш взгляд, значительный интерес как для нарратологии, так и для лингвистики. Мы не имеем возможности (и, прежде всего, надлежащей квалификации) для полноценного рассмотрения такого рода, но постараемся ниже сформулировать хотя бы основные тезисы.

В

Для описания переменной размерности мультифрактала само понятие фрактальной размерности (так называемой размерности Хаусдорфа) пришлось обобщить. Хаусдорфова размерность является наиболее простым частным случаем размерности Рени, названной по имени венгерского математика Альфреда Рени (Alfréd Rényi, 1921—1970), который занимался вовсе не фракталами, а теорией информации. Величину, которая оказалась приложима к мультифракталам в качестве их размерности, Рени ввел в качестве обобщения формулы Шеннона для количества информации[1]. Поэтому еще один важный частный случай размерности Рени для мультифрактала — так называемая информационная размерность, названная так в честь своей связи с формулой Шеннона.

Для монофрактала информационная размерность всегда равна размерности Хаусдорфа, а для мультифрактала она всегда меньше размерности Хаусдорфа, и поэтому смысл этой размерности еще и в том, что она показывает степень неоднородности фрактала.

Но, как многие читатели помнят, формула, выведенная Шенноном из общих соображений, связанных только с измерением количества информации, в точности совпала с известной из статистической физики формулой Больцмана для энтропии (теорема Больцмана была опубликована в 1895)[2]. Поэтому и предложенная Шенноном величина стала называться энтропией Шеннона (Шеннон назвал ее «энтропией множества вероятностей»).

Подобно тому, как в термодинамике энтропия характеризует рассеивание энергии, так и энтропия Шеннона характеризует рассеивание информации. Точнее говоря, возрастание энтропии Шеннона — это возрастание того количества информации, которое нам становится необходимо знать для точного определения состояния системы. Энтропия Шеннона равна нулю, когда мы обладаем полным знанием о системе, и проходит максимальное значение, когда все вероятности, характеризующие разные элементы системы, оказываются равны, то есть тогда, когда неопределенность наибольшая.

У Шеннона и Рени количество информации определялось через понятие вероятности. Это оказалось удобно для мультифракталов, но нельзя напрямую отнести к фракталам, основанным на нечетких множествах. В нечеткой логике вероятность рассматривается лишь как частный случай нечеткости.

Обобщения понятия энтропии Шеннона для нечетких множеств предлагаются, начиная с 1972 года, диверсифицировано для разных типов нечетких множеств, но пока что без особого интереса к фракталам[3]. Действительно, в нечеткой логике могут иметь место и вероятностные рассуждения, применительно к которым Заде еще в самых ранних работах 1965 года использовал понятие энтропии Шеннона. Но для определения той энтропии, которая связана собственно с нечеткостью, то есть не имеет пробабилистического смысла, нужно концептуально другое понятие. Его сходство и его отличие от «аутентичной» (пробабилистической) энтропии Шеннона, как можно ожидать, будет вполне аналогично соответствию между энтропией Шеннона и энтропией Больцмана: математическое выражение одинаковое, но смысл, хоть и аналогичный, но разный.

Существуют несколько определений энтропии Шеннона для нечетких множеств. Они отличаются в некоторых деталях, но совпадают в базовых принципах. Таких принципов всего четыре (четыре аксиомы Де Луки и Термини). Для определения энтропии в формулу Шеннона вместо вероятности подставляются функции принадлежности (точнее, суммы функций принадлежности множества и его дополнения). Энтропия подчиняется следующим четырем аксиомам:

1. она равна 0 только для четкого множества,

2. она максимальна при значениях функций принадлежности 0,5,

3. для более нечеткого множества она всегда больше, чем для менее нечеткого,

4. для нечеткого множества и его дополнения (отрицания) она одинакова.

Как видно, две первые аксиомы аналогичны свойствам пробабилистической энтропии Шеннона, а третья и четвертая специфичны для нечетких множеств.

Поскольку переопределение энтропии Шеннона для нечетких множеств не ведет к сколько-нибудь существенному изменению математического аппарата, мы можем сделать вывод о том, что и понятие информационной размерности для нечеткого мультифрактала будет иметь тот же смысл, что и для четкого.

Для оценки энтропии нечеткого множества в целом (иногда называемой тотальной энтропией) может быть необходимо учитывать вклад как собственно нечеткой энтропии, так и пробабилистической энтропии Шеннона. Для этого предложено несколько способов[4], подробности которых разбирать нет смысла, так как они не приводят к появлению существенно других математических выражений и, следовательно, не могут повлиять на смысл понятия информационной размерности для нечеткого мультифрактала.

Теперь мы приходим к выводу, который одновременно может нам показаться и привлекательным, и отталкивающим:

·             Процесс создания нарратива (дискурса) — это процесс рассеивания информации, то есть

·             такой процесс, при котором нарастает состояние хаоса, а порядок убывает.

 

Конечно, это хорошо согласуется с нашей аналогией турбулентного каскада, но на первый взгляд неочевидно, как это соотносится со способностью искусства создавать гармонию и хотя бы просто со способностью дискурса к передаче, а не к уничтожению информации.

Конечно, тут сразу можно вспомнить, что «мысль изреченная есть ложь». Но, наверное, нужно еще какое-нибудь объяснение.

И оно сейчас будет дано. В нем мы обратим внимание на то, что нам уже случилось отметить при обсуждении функций Патнема, когда мы решили не называть их интенсионалами (раздел 2.5). А именно, на то, что мы до сих пор обсуждаем конструкции, совершенно независимые от содержания, как экстенсионального, так и интенсионального.

Информация в этих наших конструкциях есть — но только если считать информацией то, что определил в качестве таковой Шеннон. Информация, по Шеннону, — это лишь одна из характеристик того, как устроен нарратив, а вовсе не того, «о чем» он. Поэтому информация в наших конструкциях есть, а содержания — нет: ни экстенсионального, ни интенсионального.

До сих пор в этой главе мы рассматривали только текстуру нарратива. Но теперь, наконец, мы подошли к вопросу о ее отношении к содержанию.


[1] Гипотеза 1961 года, окончательно сформулированная в статье 1965 года: A. Rényi, On the foundations of information theory // Selected Papers of Alfréd Rényi / Ed. P. Turán. Vol. 3. 1962–1970 (Budapest, 1976) 304–318. Знаменитая формула отца теории информации Клода Шеннона (Claude Shannon, 1916—2001) была предложена в статье 1948 года «Математическая теория связи»; рус. пер.: К. Шеннон, Работы по теории информации и кибернетике / Пер. с англ. под ред. Р. Л. Добрушина и О. Б. Лупанова (М., 1963) 243–332, особ. 259–263.

[2] Я позволю себе не разбирать здесь эти формулы, мимо которых не мог пройти ни один человек, получавший естественнонаучное или математическое образование. Все рассуждения в этом разделе будут вполне понятны, даже если не иметь такого образования и конкретного вида упомянутых формул не знать. Поэтому только напомню сам вид формулы Шеннона: H = – Σ pi log2 pi . 

[3] Назову только основные работы: A. De Luca, S. Termini, A definition of a non-probabilistic entropy in the setting of fuzzy sets theory, Information and Control 20 (1972) 301–312 (здесь сформулированы 4 аксиомы, которым должна соответствовать энтропия нечеткого множества); Bart Kosko, Fuzzy Entropy and Conditioning, Information Sciences 40 (1986) 165–174; S. Al-Sharhan, F. Karray, W. Gueaieb, O. Basir, Fuzzy entropy: a brief survey // The 10th IEEE International Conference on Fuzzy Systems, 2001. Vol. 3 (S. l., 2001) 1135–1139.

[4] Их обзор: Al-Sharhan, Karray, Gueaieb, Basir, Fuzzy entropy: a brief survey.

и


Subscribe

  • Post a new comment

    Error

    default userpic

    Your reply will be screened

    Your IP address will be recorded 

    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 0 comments