АкушерствоАнатомияАнестезиологияВакцинопрофилактикаВалеологияВетеринарияГигиенаЗаболеванияИммунологияКардиологияНеврологияНефрологияОнкологияОториноларингологияОфтальмологияПаразитологияПедиатрияПервая помощьПсихиатрияПульмонологияРеанимацияРевматологияСтоматологияТерапияТоксикологияТравматологияУрологияФармакологияФармацевтикаФизиотерапияФтизиатрияХирургияЭндокринологияЭпидемиология

Междисциплинарные коды информации

Прочитайте:
  1. IV. Источники учебной информации
  2. V. БЛОК ИНФОРМАЦИИ.
  3. Асимметричность информации
  4. Блок дополнительной информации.
  5. Блок дополнительной информации.
  6. Блок информации
  7. ВИДЫ ИНФОРМАЦИИ В ТЕКСТЕ
  8. Источники учебной информации
  9. Кодирование графической информации
  10. Кодирование звуковой информации

Для информатики как единой науки, образующей важнейшее связующее звено между гуманитарными и естественнонаучными дисциплинами, актуальность междисциплинарного исследования информации общеизвестна. Одной из задач иконики является семантизация цветовых кодов Для решения этой задачи в § 14.2 информационные потоки были формализованы (на основе единства системы ВС-ЕИ) и, в частности, с помощью известных свойств цвета конкретизированы связанный и свободный вид информации.

Оказалось, что именно относительные (то есть приведенные к I0) величины определяют вероятности связанных и/или свободных состояний информации в системе. В связи с этим обратим внимание на величину a, смысл формулы которой (14.9) явно коррелирует с законом Бугера-Вебера:

a = (I 0 - I) / I 0 (14.46)

где, согласно Веберу, I0 – объективная величина адаптирующего раздражителя; I0 - I – субъективно определяемый разностный порог.

Иначе говоря, вероятность a может характеризовать искомую связь между объективными, по формуле (14.9), и субъективными, по закону Бугера-Вебера (14.46), величинами для одномерных сенсорных раздражителей.

В связи с этим обратим внимание на относительную величину информационного пропускания Т в формуле (14.18), которая получена интегрированием (14.16), что указывает на явную связь Т с законом Вебера-Фехнера

r =а ln(I / Io) + в (14.47)

где r – субъективная величина светлоты; Io объективная величина яркости; а и в – условные единицы масштаба.

С учетом относительной величины I Ю.М. Забродиным была показана смысловая связь этих формул с законом Стивенса

r = а I в - с, (14.48)

где а, в и с – эмпирические постоянные. Уточненная по изотропной модели цветоразличения (Г. Вышецки), формула (14.48) и была предложена МКО для практического измерения светлоты в виде:.

r = 25 I 0,33 - 17, (14.49)

Результат адаптации к данному раздражителю (с позиций информатики) может быть представлен соотношением между связанной и свободной информацией (то есть количеством воспринятой информации Н). В общем виде величина Н определяется формулой (14.22), которую, согласно соотношениям (14.13-21) можно записать в виде:

Н = – å It log2ti. (14.50)

Здесь ti = It / Io вероятностьнахождения свободной информации, определяемая отношением количества свободной It к исходному количеству Io информации в сообщении, включающем i состояний с вероятностями ti.

Рассмотрение частных случаев показало определенную общность зависимости (14.22), а следовательно, и формулы (14.50) с представлением количества информации Хартли-Шеннона (14.23). Вместе с тем, между формулами (14.23) и (14.50) наблюдаются и существенные расхождения.

Во-первых, соотношение (14.23) является безразмерностным в представлении любой системы размерностей, что противоречит собственно семантике “информационной энтропии” в любой системе единиц измерения.

Во-вторых, согласно научной традиции и теории размерностей, вероятность (как отношение безразмерных и/или одноименных величин) не может обладать размерностью или порождать ее.

И, наконец, в-третьих, “информационная энтропия” может быть соотнесена с реальной термодинамической энтропией только при 0о К, где и могут быть уравнены термодинамическая и математическая вероятности, что, как известно, всегда вызывало затруднения в теоретическом обосновании формулы (14.23).

Из соотношений же (14.50) следует как собственно понятие “информация”, так и распределение информационных потоков между источником и приемником. Помимо этого, полученная модель позволила дать обобщенное определение информации и ввести четкие критерии подразделения информации на связанную и свободную.

 


Дата добавления: 2015-09-27 | Просмотры: 410 | Нарушение авторских прав







При использовании материала ссылка на сайт medlec.org обязательна! (0.003 сек.)