АкушерствоАнатомияАнестезиологияВакцинопрофилактикаВалеологияВетеринарияГигиенаЗаболеванияИммунологияКардиологияНеврологияНефрологияОнкологияОториноларингологияОфтальмологияПаразитологияПедиатрияПервая помощьПсихиатрияПульмонологияРеанимацияРевматологияСтоматологияТерапияТоксикологияТравматологияУрологияФармакологияФармацевтикаФизиотерапияФтизиатрияХирургияЭндокринологияЭпидемиология
|
Информационный характер цвета
Представим модель, в которой кодирование информационных потоков осуществляется семантически выделенными компонентами потока излучения при его преобразовании веществом. Основанием для этого служит неоспоримый факт кодирования и переноса информации световым потоком с ее декодированием в системе. Согласование объективного кода передатчика ВС с субъективным кодом приемника на уровне ЕИ осуществляется по кривым спектральной световой эффективности излучения для стандартного наблюдателя, которые далее будем называть кривыми видности Vl и Vl ’. Эти кривые Международная комиссия по освещению (МКО) (Commission Internationale de l’Йclairage – CIE) рекомендовала в качестве эмпирического согласователя светоцветовых функций источника и человеческого глаза. Вообще говоря, для других приемников используют другие зависимости f(l), однако в целях соотнесения нашей модели с опытом примем за основу именно Vl и Vl ’.
Представим зависимость кривых видности Vl и Vl ’ от длины волны в виде
f(l) = f(lо) j(li),
| (14.1)
| где f(lо) - максимальное значение функции f(l), достигаемое в центре полосы; j(li) - функция, которая при l = lо приобретает значение, равное 1 и спадает до базовой линии к краям полос Vl и Vl ’, в области которых проводится интегрирование.
Отсюда следует соотношение
F(l) = ò f(l)= f(lо) ò j(li)dl,
| (14.2)
| которое позволяет выразить максимальное значение функции как
f(lо) = ò f(l) / ò j(li)dl,
| (14.3)
| где j(li) пропорциональна относительной интенсивности полосы, то есть вероятности реализации информации.
В практических целях обозначим интеграл òj(li)dl = Dl(j), величина которого имеет порядок Dl1/2, то есть полуширины полосы с гауссовым контуром Vl и Vl ’. Так как j(lо) = 1 для обеих кривых видности, то площадь полос составит величину порядка Dl, что дает основание представить искомую функцию в виде
Прохождение излучения (сигнала, несущего информацию) через вещество (систему компонентов приемника) связано с процессом его преобразования (компонентами системы) в соответствии с уровнем согласования алфавитов излучателя и приемника. Так, например, приемник, поглощающий лишь в красной области, не получит никакой информации от квазимонохромного потока излучения синего цвета в силу несогласованности алфавитов и пропустит (отразит, рассеет) его без поглощения, то есть связывания сигнала источника, говоря языком информатики.
Поэтому взаимодействие излучения и вещества принято характеризовать суммой
s = a + t + r + d = 1,
| (14.5)
| где: s - относительная, то есть приведенная к единице, величина излучения, a - коэффициент поглощения, t - коэффициент пропускания, r - коэффициент отражения и d - коэффициент рассеяния потока излучения веществом. Так как сигнал в определении (14.5) разделяется на поглощаемую, проходящую, рассеиваемую и отраженную компоненты при прохождении через вещество, то информационный поток в приемнике можно также подразделить, вслед за Н. Винером[118], включая сюда компоненты не только связанной a и свободной t, но и свободно-связанной r и связанно-свободной d информации.
Формализация и определение семантики первой пары компонентов, нам кажется наиболее актуальной. Поэтому в первом приближении ограничимся моделированием информационных кодов цветового пространства путем его представления через относительную сумму длин волн li как функцию lо. При этом очевидное условие согласования алфавитов излучения и вещества дает возможность определения свободной t и связанной a информации:
Здесь lо – длина волны, определяемая по функции (14.3), и, в свою очередь, определяющая доминирующий цвет распределением вероятностей li в (14.2); l1 и l2 – длины волн (коррелирующие с парой дополнительных цветов), которые с вероятностями a и t при аддитивном сложении дают ахромный цвет излучения slо; s, a и t – относительные количества исходной, связанной и свободной информации (см. ниже), которые могут быть представлены, к примеру, спектральными коэффициентами яркости, поглощения и пропускания, соответственно[119].
Согласно равенству (3), коэффициенты s, a и t можно полагать вероятностями осуществления релевантных кодов li, по условию (5) [2, 3]. Действительно, поскольку они моделируют относительное количество информации в потоке, то могут быть представлены в виде отношений
s = I 0/ I 0;
| (14.7)
| t = I / I 0
| (14.8)
| a = (I 0 - I) / I 0
| (14.9)
| Здесь I0 – исходное количество информации (на входе); I – количество преобразованной в системе информации, которую можно отнести к свободной (на выходе); (I0 - I) – количество связанной в системе информации. Таким образом, именно относительные (то есть приведенные к I0) величины определяют вероятности связанных и/или свободных состояний информации в системе.
Обратим внимание на величину a, смысл которой в (6), вообще говоря, коррелирует с известным понятием коэффициента полезного действия и, в частности, с избыточностью сигнала: (n-no)/n, где no и n – минимальная и текущая длина, соответственно. Иначе говоря, вероятность a может характеризовать своего рода энтропийную тенденцию (шумы, нагревание и т.п.), что позволяет соотнести a с пассивным характером связанной информации.
В соответствии с этим отнесением t может определять также пассивный (потенциальный) характер свободной (то есть, не взаимодействующей по коду l1 с компонентами системы) информации. Согласно же теории вероятностей, величина 1/t будет определять негэнтропийный активный (актуализированный) характер связанной информации, которая взаимодействует с компонентами системы по коду l1.
Вообще говоря, любая система воспринимает только ту информацию, которую она способна поглотить. Как показано в § 10.2, эта часть информации будет обладать резонансными характеристиками, общими с компонентами поглощающей ее системы. При этом воспринятая (поглощенная) информация, или окостеневшее, загустевшее состояние информации, по Н. Винеру, может являться той самой внутренней структурной информацией, которые мы называем компонентами интеллекта и обозначаем хром-планами. Так, в ЕИ мы выделили триаду хром-планов, которые в самом деле, воспринимают специфические цвета (см. табл.1.5, 1.8 и др.). Показателен именно резонансный характер взаимодействия хром-планов с заданными цветами: они и несут в себе специфические черты компонентов, и взаимодействуют с внешней средой на этой основе, и обладают собственным специфическим алфавитом, во всех аспектах взаимодействия с различными видами информации.
Итак, под связанной мы понимаем такой вид информации, который коррелирует с составом компонентов и межкомпонентных взаимодействий системы по типу винеровских относительно устойчивых функциональных состояний систем, обладающих внутренней структурной информацией. Всю остальную информацию в приближении (14.6) можно отнести к свободной. Отсюда несложно дать рабочее определение “информации”, которое подразумевает учет и энтропийных, и негэнтропийных характеристик сигнала: Информация – это согласованное распределение вероятностей источника по релевантным кодам связанных и свободных состояний приемника.
Согласно закону сохранения энергии, это определение позволяет представить условие нормировки вероятностей (14.5) как принцип сохранения вероятностей состояний в замкнутой системе и в пределах приближения (14.6) записать:
Согласно формуле (14.6), принцип (14.10) позволяет оценить относительные количества связанной a и свободной t информации по кодам li, которые были заданы вероятностями (14.7-9):
a = (l2 - l0) / (l2 - l1),
| (14.11)
| t = (l0 - l1) / (l2 -l1),
| (14.12)
| где a и t характеризуются также отношениями одноименных величин, но уже разностей, которые включают их распределение по взаимосогласованным кодам li.
Отсюда несложно выразить количество исходной I0, связанной Ia и свободной It информации в абсолютных единицах через разности распределения вероятностей li:
I0 = i (l2 - l1),
| (14.13)
| Ia = i (l2 - l0)
| (14.14)
| It = i (l0 - l1),
| (14.15)
| где i - – спектральная плотность информации (бит×нм-1).
.Приведенные зависимости позволяют предположить возможным принцип сохранения информации в замкнутой системе (I0 = Ia + It). В прагматических целях сопоставим эти определения с теоретическими и экспериментальными данными.
Согласно закону Бугера-Ламберта, ослабление излучения на элементарном слое вещества пропорционально потоку излучения и толщине этого слоя. Следовательно, исходное количество информации Io после прохождения сигнала (физического процесса, несущего информацию) через элементарный компонент dc системы С уменьшается на dI, откуда
где m = – dI / Io dс – коэффициент поглощения потока излучения.
Величина m равна относительному уменьшению – dI/Io информационного потока на единичном компоненте, то есть количеству информации, которое поглощается в единицу времени единичным компонентом системы. Поскольку m определяется согласованием свойств потока и системы, далее мы будем называть эту величину показателем связывания информации системой.
Как следует из равенств (14.6) и (14.13-15), m связана с уровнем согласованности алфавитов информационного потока Io и компонентов системы С по длине волны li. Полное согласование, то есть постоянство m для ахромного потока и системы однородных компонентов позволяет интегрировать уравнение (11.16)
Io ò It dI / Io = –mo ò с dс,
| (14.17
| Отсюда получаем
Т = ln(It / Io) = –mс,
| (14.18)
| или, согласно (14.8)
t = It / Io = exp (–mс),
| (14.19)
| где t – коэффициент свободной информации, согласованный в выражении (14.6) по коду l2; m – показатель связывания информации, согласованный по коду l1; с – число компонентов системы, на которое приходится m связанной информации.
Величина m в двоичной системе счисления (m2 = 3,32m) измеряется в битах при измерении с в бит-1. Из равенств (14.10) и (14.19) следует, что вероятность осуществления кодов li взаимосвязана с набором a и t, то есть является показательной функцией именно произведения mс и может быть выражена как
a = 1 – exp (–mс).,
| (14.20)
| Строго говоря, показательный закон (14.19) и (14.20) имеет место для монохромных потоков информации (Dl®0). Поскольку для реальных, то есть полихромных потоков величина m является функцией длины волны, то информационные потоки различных l будут обладать различным уровнем согласования алфавитов, согласно аппаратной функции приемника ¦(Dl) и равенствам (14.4) и (14.11-15). В нашей модели, то есть для ахромных потоков источника и цветов приемника m¹¦(l), что будет показано ниже.
Для практической оценки связанной информации введем величину информационной плотности D, которая, согласно (14.18) и логарифмированию вероятностей, будет подчиняться свойству аддитивности:
D = ln (1 /t) = mc
| (14.21)
| Как и в случаях (14.18-20), отсюда следует, что величина информации коррелирует не с отдельными величинами m и с, а с их произведением.
Согласно формулам (14.6), (14.15) и (11.19), величину информационного пропускания T = -mc можно соотнести с вероятностным отношением свободной It к исходной Io информации, что, вообще говоря, позволяет разделить эти параметры. Отсюда появляется основание для распространения свойства аддитивности на величину m и для свободной информации:
åmi = – å (1/ сi) log2t
| (14.22)
| Где åmi – показатель (связанной компонентами сi) информации, бит; сi – количество компонентов системы, приходящееся на m бит информации согласно их взаимообусловленности в формулах (14.18-21); t – вероятности состояний с распределением вероятностей по коду пропускания, то есть l2 в приближении (14.6).
Справедливость равенства (14.22) для оценки количества связанной информации по величине свободной подтверждается равенством нулю суммы вероятностных величин информационной плотности в формуле (14.21) и пропускания в (14.18): D + T = 0. Произведение же этих величин при совместном проявлении кодов li, согласно теории вероятностей, должно быть равно единице, что и подтверждается на опыте: D ·T = 1.
Рассмотрение частных случаев зависимости m(t) для ахромных потоков источника и аналогичных цветов приемника показывает, что при t=1 m=0, при t ®0 m®0 и при t = a m=1.
В связи с этим нельзя не отметить определенную общность функции (14.22) с известным представлением количества информации Хартли-Шеннона:
Н = å рi log2 рi,
| (14.23)
| где Н – количество информации в сообщении, состоящем из i независимых состояний с вероятностями рi. К этой общности мы вернемся ниже.
Предложенная выше модель и, в частности, соотношения (14.21) и (14.22), на наш взгляд, имеют четкий физический смысл, проявляющийся при учете всех сторон взаимодействия информационного потока Io с системой компонентов с i.
Дата добавления: 2015-09-27 | Просмотры: 535 | Нарушение авторских прав
|