АкушерствоАнатомияАнестезиологияВакцинопрофилактикаВалеологияВетеринарияГигиенаЗаболеванияИммунологияКардиологияНеврологияНефрологияОнкологияОториноларингологияОфтальмологияПаразитологияПедиатрияПервая помощьПсихиатрияПульмонологияРеанимацияРевматологияСтоматологияТерапияТоксикологияТравматологияУрологияФармакологияФармацевтикаФизиотерапияФтизиатрияХирургияЭндокринологияЭпидемиология

Информационный характер цвета

Прочитайте:
  1. I. ХАРАКТЕР И ЗНАЧЕНИЕ ИГРЫ КАК ЯВЛЕНИЯ КУЛЬТУРЫ
  2. II. Лебон и его характеристика массовой души
  3. II. Характер поражения сосудов
  4. III. ПСИХОЛОГIЧНI ОСОБЛИВОСТI ПОВЕДIНКИ ОСОБИ (темперамент, характер).
  5. III. Характеристика на интерна
  6. IX. Характеристика основных классов АМП
  7. V. Информационный блок для самостоятельной позааудиторной разработки темы
  8. VII. Что характерно для окситоцина?
  9. А) Характеристика методів візуалізації сечової системи, показання до застосування, їх можливості та обмеження.
  10. а. По предложенным ацидограммам (см. Приложение 1; 2) охарактеризуйте патологические типы желудочной секреции.

Представим модель, в которой кодирование информационных потоков осуществляется семантически выделенными компонентами потока излучения при его преобразовании веществом. Основанием для этого служит неоспоримый факт кодирования и переноса информации световым потоком с ее декодированием в системе. Согласование объективного кода передатчика ВС с субъективным кодом приемника на уровне ЕИ осуществляется по кривым спектральной световой эффективности излучения для стандартного наблюдателя, которые далее будем называть кривыми видности Vl и Vl ’. Эти кривые Международная комиссия по освещению (МКО) (Commission Internationale de l’Йclairage – CIE) рекомендовала в качестве эмпирического согласователя светоцветовых функций источника и человеческого глаза. Вообще говоря, для других приемников используют другие зависимости f(l), однако в целях соотнесения нашей модели с опытом примем за основу именно Vl и Vl ’.

Представим зависимость кривых видности Vl и Vl ’ от длины волны в виде

f(l) = f(lо) j(li), (14.1)

где f(lо) - максимальное значение функции f(l), достигаемое в центре полосы; j(li) - функция, которая при l = lо приобретает значение, равное 1 и спадает до базовой линии к краям полос Vl и Vl ’, в области которых проводится интегрирование.

Отсюда следует соотношение

F(l) = ò f(l)= f(lо) ò j(li)dl, (14.2)

которое позволяет выразить максимальное значение функции как

f(lо) = ò f(l) / ò j(li)dl, (14.3)

где j(li) пропорциональна относительной интенсивности полосы, то есть вероятности реализации информации.

В практических целях обозначим интеграл òj(li)dl = Dl(j), величина которого имеет порядок Dl1/2, то есть полуширины полосы с гауссовым контуром Vl и Vl ’. Так как j(lо) = 1 для обеих кривых видности, то площадь полос составит величину порядка Dl, что дает основание представить искомую функцию в виде

F(l)= f(lо) Dl(j) (14.4)

Прохождение излучения (сигнала, несущего информацию) через вещество (систему компонентов приемника) связано с процессом его преобразования (компонентами системы) в соответствии с уровнем согласования алфавитов излучателя и приемника. Так, например, приемник, поглощающий лишь в красной области, не получит никакой информации от квазимонохромного потока излучения синего цвета в силу несогласованности алфавитов и пропустит (отразит, рассеет) его без поглощения, то есть связывания сигнала источника, говоря языком информатики.

Поэтому взаимодействие излучения и вещества принято характеризовать суммой

s = a + t + r + d = 1, (14.5)

где: s - относительная, то есть приведенная к единице, величина излучения, a - коэффициент поглощения, t - коэффициент пропускания, r - коэффициент отражения и d - коэффициент рассеяния потока излучения веществом. Так как сигнал в определении (14.5) разделяется на поглощаемую, проходящую, рассеиваемую и отраженную компоненты при прохождении через вещество, то информационный поток в приемнике можно также подразделить, вслед за Н. Винером[118], включая сюда компоненты не только связанной a и свободной t, но и свободно-связанной r и связанно-свободной d информации.

Формализация и определение семантики первой пары компонентов, нам кажется наиболее актуальной. Поэтому в первом приближении ограничимся моделированием информационных кодов цветового пространства путем его представления через относительную сумму длин волн li как функцию lо. При этом очевидное условие согласования алфавитов излучения и вещества дает возможность определения свободной t и связанной a информации:

slо = al1 + tl2. (14.6)

Здесь lо – длина волны, определяемая по функции (14.3), и, в свою очередь, определяющая доминирующий цвет распределением вероятностей li в (14.2); l1 и l2 – длины волн (коррелирующие с парой дополнительных цветов), которые с вероятностями a и t при аддитивном сложении дают ахромный цвет излучения slо; s, a и t – относительные количества исходной, связанной и свободной информации (см. ниже), которые могут быть представлены, к примеру, спектральными коэффициентами яркости, поглощения и пропускания, соответственно[119].

Согласно равенству (3), коэффициенты s, a и t можно полагать вероятностями осуществления релевантных кодов li, по условию (5) [2, 3]. Действительно, поскольку они моделируют относительное количество информации в потоке, то могут быть представлены в виде отношений

s = I 0/ I 0; (14.7)
t = I / I 0 (14.8)
a = (I 0 - I) / I 0 (14.9)

Здесь I0 – исходное количество информации (на входе); I – количество преобразованной в системе информации, которую можно отнести к свободной (на выходе); (I0 - I) – количество связанной в системе информации. Таким образом, именно относительные (то есть приведенные к I0) величины определяют вероятности связанных и/или свободных состояний информации в системе.

Обратим внимание на величину a, смысл которой в (6), вообще говоря, коррелирует с известным понятием коэффициента полезного действия и, в частности, с избыточностью сигнала: (n-no)/n, где no и n – минимальная и текущая длина, соответственно. Иначе говоря, вероятность a может характеризовать своего рода энтропийную тенденцию (шумы, нагревание и т.п.), что позволяет соотнести a с пассивным характером связанной информации.

В соответствии с этим отнесением t может определять также пассивный (потенциальный) характер свободной (то есть, не взаимодействующей по коду l1 с компонентами системы) информации. Согласно же теории вероятностей, величина 1/t будет определять негэнтропийный активный (актуализированный) характер связанной информации, которая взаимодействует с компонентами системы по коду l1.

Вообще говоря, любая система воспринимает только ту информацию, которую она способна поглотить. Как показано в § 10.2, эта часть информации будет обладать резонансными характеристиками, общими с компонентами поглощающей ее системы. При этом воспринятая (поглощенная) информация, или окостеневшее, загустевшее состояние информации, по Н. Винеру, может являться той самой внутренней структурной информацией, которые мы называем компонентами интеллекта и обозначаем хром-планами. Так, в ЕИ мы выделили триаду хром-планов, которые в самом деле, воспринимают специфические цвета (см. табл.1.5, 1.8 и др.). Показателен именно резонансный характер взаимодействия хром-планов с заданными цветами: они и несут в себе специфические черты компонентов, и взаимодействуют с внешней средой на этой основе, и обладают собственным специфическим алфавитом, во всех аспектах взаимодействия с различными видами информации.

Итак, под связанной мы понимаем такой вид информации, который коррелирует с составом компонентов и межкомпонентных взаимодействий системы по типу винеровских относительно устойчивых функциональных состояний систем, обладающих внутренней структурной информацией. Всю остальную информацию в приближении (14.6) можно отнести к свободной. Отсюда несложно дать рабочее определение “информации”, которое подразумевает учет и энтропийных, и негэнтропийных характеристик сигнала: Информация – это согласованное распределение вероятностей источника по релевантным кодам связанных и свободных состояний приемника.

Согласно закону сохранения энергии, это определение позволяет представить условие нормировки вероятностей (14.5) как принцип сохранения вероятностей состояний в замкнутой системе и в пределах приближения (14.6) записать:

s = a + t = 1. (14.10)

Согласно формуле (14.6), принцип (14.10) позволяет оценить относительные количества связанной a и свободной t информации по кодам li, которые были заданы вероятностями (14.7-9):

a = (l2 - l0) / (l2 - l1), (14.11)
t = (l0 - l1) / (l2 -l1), (14.12)

где a и t характеризуются также отношениями одноименных величин, но уже разностей, которые включают их распределение по взаимосогласованным кодам li.

Отсюда несложно выразить количество исходной I0, связанной Ia и свободной It информации в абсолютных единицах через разности распределения вероятностей li:

I0 = i (l2 - l1), (14.13)
Ia = i (l2 - l0) (14.14)
It = i (l0 - l1), (14.15)

где i - – спектральная плотность информации (бит×нм-1).

.Приведенные зависимости позволяют предположить возможным принцип сохранения информации в замкнутой системе (I0 = Ia + It). В прагматических целях сопоставим эти определения с теоретическими и экспериментальными данными.

Согласно закону Бугера-Ламберта, ослабление излучения на элементарном слое вещества пропорционально потоку излучения и толщине этого слоя. Следовательно, исходное количество информации Io после прохождения сигнала (физического процесса, несущего информацию) через элементарный компонент dc системы С уменьшается на dI, откуда

– dI = m Io dс, (14.16)

где m = – dI / Io – коэффициент поглощения потока излучения.

Величина m равна относительному уменьшению – dI/Io информационного потока на единичном компоненте, то есть количеству информации, которое поглощается в единицу времени единичным компонентом системы. Поскольку m определяется согласованием свойств потока и системы, далее мы будем называть эту величину показателем связывания информации системой.

Как следует из равенств (14.6) и (14.13-15), m связана с уровнем согласованности алфавитов информационного потока Io и компонентов системы С по длине волны li. Полное согласование, то есть постоянство m для ахромного потока и системы однородных компонентов позволяет интегрировать уравнение (11.16)

Io ò It dI / Io = –mo ò с dс, (14.17

Отсюда получаем

Т = ln(It / Io) = –mс, (14.18)

или, согласно (14.8)

t = It / Io = exp (–mс), (14.19)

где t – коэффициент свободной информации, согласованный в выражении (14.6) по коду l2; m – показатель связывания информации, согласованный по коду l1; с – число компонентов системы, на которое приходится m связанной информации.

Величина m в двоичной системе счисления (m2 = 3,32m) измеряется в битах при измерении с в бит-1. Из равенств (14.10) и (14.19) следует, что вероятность осуществления кодов li взаимосвязана с набором a и t, то есть является показательной функцией именно произведения и может быть выражена как

a = 1 – exp (–mс)., (14.20)

Строго говоря, показательный закон (14.19) и (14.20) имеет место для монохромных потоков информации (Dl®0). Поскольку для реальных, то есть полихромных потоков величина m является функцией длины волны, то информационные потоки различных l будут обладать различным уровнем согласования алфавитов, согласно аппаратной функции приемника ¦(Dl) и равенствам (14.4) и (14.11-15). В нашей модели, то есть для ахромных потоков источника и цветов приемника m¹¦(l), что будет показано ниже.

Для практической оценки связанной информации введем величину информационной плотности D, которая, согласно (14.18) и логарифмированию вероятностей, будет подчиняться свойству аддитивности:

D = ln (1 /t) = mc (14.21)

Как и в случаях (14.18-20), отсюда следует, что величина информации коррелирует не с отдельными величинами m и с, а с их произведением.

Согласно формулам (14.6), (14.15) и (11.19), величину информационного пропускания T = -mc можно соотнести с вероятностным отношением свободной It к исходной Io информации, что, вообще говоря, позволяет разделить эти параметры. Отсюда появляется основание для распространения свойства аддитивности на величину m и для свободной информации:

åmi = – å (1/ сi) log2t (14.22)

Где åmi – показатель (связанной компонентами сi) информации, бит; сi – количество компонентов системы, приходящееся на m бит информации согласно их взаимообусловленности в формулах (14.18-21); t – вероятности состояний с распределением вероятностей по коду пропускания, то есть l2 в приближении (14.6).

Справедливость равенства (14.22) для оценки количества связанной информации по величине свободной подтверждается равенством нулю суммы вероятностных величин информационной плотности в формуле (14.21) и пропускания в (14.18): D + T = 0. Произведение же этих величин при совместном проявлении кодов li, согласно теории вероятностей, должно быть равно единице, что и подтверждается на опыте: D ·T = 1.

Рассмотрение частных случаев зависимости m(t) для ахромных потоков источника и аналогичных цветов приемника показывает, что при t=1 m=0, при t ®0 m®0 и при t = a m=1.

В связи с этим нельзя не отметить определенную общность функции (14.22) с известным представлением количества информации Хартли-Шеннона:

Н = å рi log2 рi, (14.23)

где Н – количество информации в сообщении, состоящем из i независимых состояний с вероятностями рi. К этой общности мы вернемся ниже.

Предложенная выше модель и, в частности, соотношения (14.21) и (14.22), на наш взгляд, имеют четкий физический смысл, проявляющийся при учете всех сторон взаимодействия информационного потока Io с системой компонентов с i.

 


Дата добавления: 2015-09-27 | Просмотры: 535 | Нарушение авторских прав







При использовании материала ссылка на сайт medlec.org обязательна! (0.007 сек.)