Междисциплинарные коды информации
Для информатики как единой науки, образующей важнейшее связующее звено между гуманитарными и естественнонаучными дисциплинами, актуальность междисциплинарного исследования информации общеизвестна. Одной из задач иконики является семантизация цветовых кодов Для решения этой задачи в § 14.2 информационные потоки были формализованы (на основе единства системы ВС-ЕИ) и, в частности, с помощью известных свойств цвета конкретизированы связанный и свободный вид информации.
Оказалось, что именно относительные (то есть приведенные к I0) величины определяют вероятности связанных и/или свободных состояний информации в системе. В связи с этим обратим внимание на величину a, смысл формулы которой (14.9) явно коррелирует с законом Бугера-Вебера:
a = (I 0 - I) / I 0
| (14.46)
| где, согласно Веберу, I0 – объективная величина адаптирующего раздражителя; I0 - I – субъективно определяемый разностный порог.
Иначе говоря, вероятность a может характеризовать искомую связь между объективными, по формуле (14.9), и субъективными, по закону Бугера-Вебера (14.46), величинами для одномерных сенсорных раздражителей.
В связи с этим обратим внимание на относительную величину информационного пропускания Т в формуле (14.18), которая получена интегрированием (14.16), что указывает на явную связь Т с законом Вебера-Фехнера
r =а ln(I / Io) + в
| (14.47)
| где r – субъективная величина светлоты; Io – объективная величина яркости; а и в – условные единицы масштаба.
С учетом относительной величины I Ю.М. Забродиным была показана смысловая связь этих формул с законом Стивенса
где а, в и с – эмпирические постоянные. Уточненная по изотропной модели цветоразличения (Г. Вышецки), формула (14.48) и была предложена МКО для практического измерения светлоты в виде:.
r = 25 I 0,33 - 17,
| (14.49)
| Результат адаптации к данному раздражителю (с позиций информатики) может быть представлен соотношением между связанной и свободной информацией (то есть количеством воспринятой информации Н). В общем виде величина Н определяется формулой (14.22), которую, согласно соотношениям (14.13-21) можно записать в виде:
Н = – å It log2ti.
| (14.50)
| Здесь ti = It / Io – вероятностьнахождения свободной информации, определяемая отношением количества свободной It к исходному количеству Io информации в сообщении, включающем i состояний с вероятностями ti.
Рассмотрение частных случаев показало определенную общность зависимости (14.22), а следовательно, и формулы (14.50) с представлением количества информации Хартли-Шеннона (14.23). Вместе с тем, между формулами (14.23) и (14.50) наблюдаются и существенные расхождения.
Во-первых, соотношение (14.23) является безразмерностным в представлении любой системы размерностей, что противоречит собственно семантике “информационной энтропии” в любой системе единиц измерения.
Во-вторых, согласно научной традиции и теории размерностей, вероятность (как отношение безразмерных и/или одноименных величин) не может обладать размерностью или порождать ее.
И, наконец, в-третьих, “информационная энтропия” может быть соотнесена с реальной термодинамической энтропией только при 0о К, где и могут быть уравнены термодинамическая и математическая вероятности, что, как известно, всегда вызывало затруднения в теоретическом обосновании формулы (14.23).
Из соотношений же (14.50) следует как собственно понятие “информация”, так и распределение информационных потоков между источником и приемником. Помимо этого, полученная модель позволила дать обобщенное определение информации и ввести четкие критерии подразделения информации на связанную и свободную.
Дата добавления: 2015-09-27 | Просмотры: 414 | Нарушение авторских прав
|