| 
АкушерствоАнатомияАнестезиологияВакцинопрофилактикаВалеологияВетеринарияГигиенаЗаболеванияИммунологияКардиологияНеврологияНефрологияОнкологияОториноларингологияОфтальмологияПаразитологияПедиатрияПервая помощьПсихиатрияПульмонологияРеанимацияРевматологияСтоматологияТерапияТоксикологияТравматологияУрологияФармакологияФармацевтикаФизиотерапияФтизиатрияХирургияЭндокринологияЭпидемиология
	 | Информационный характер цветаПредставим модель, в которой кодирование информационных потоков осуществляется семантически выделенными компонентами потока излучения при его преобразовании веществом. Основанием для этого служит неоспоримый факт кодирования и переноса информации световым потоком с ее декодированием в системе. Согласование объективного кода передатчика ВС с субъективным кодом приемника на уровне ЕИ осуществляется по кривым спектральной световой эффективности излучения для стандартного наблюдателя, которые далее будем называть кривыми видности Vl и Vl ’. Эти кривые Международная комиссия по освещению (МКО) (Commission Internationale de l’Йclairage – CIE) рекомендовала в качестве эмпирического согласователя светоцветовых функций источника и человеческого глаза. Вообще говоря, для других приемников используют другие зависимости f(l), однако в целях соотнесения нашей модели с опытом примем за основу именно Vl и Vl ’. Представим зависимость кривых видности Vl и Vl ’ от длины волны в виде   | f(l) = f(lо) j(li), | (14.1) |  где f(lо) - максимальное значение функции f(l), достигаемое в центре полосы; j(li) - функция, которая при l = lо приобретает значение, равное 1 и спадает до базовой линии к краям полос Vl и Vl ’, в области которых проводится интегрирование. Отсюда следует соотношение   | F(l) = ò f(l)= f(lо) ò j(li)dl, | (14.2) |  которое позволяет выразить максимальное значение функции как   | f(lо) = ò f(l) / ò j(li)dl, | (14.3) |  где j(li) пропорциональна относительной интенсивности полосы, то есть вероятности реализации информации. В практических целях обозначим интеграл òj(li)dl = Dl(j), величина которого имеет порядок Dl1/2, то есть полуширины полосы с гауссовым контуром Vl и Vl ’. Так как j(lо) = 1 для обеих кривых видности, то площадь полос составит величину порядка Dl, что дает основание представить искомую функцию в виде Прохождение излучения (сигнала, несущего информацию) через вещество (систему компонентов приемника) связано с процессом его преобразования (компонентами системы) в соответствии с уровнем согласования алфавитов излучателя и приемника. Так, например, приемник, поглощающий лишь в красной области, не получит никакой информации от квазимонохромного потока излучения синего цвета в силу несогласованности алфавитов и пропустит (отразит, рассеет) его без поглощения, то есть связывания сигнала источника, говоря языком информатики. Поэтому взаимодействие излучения и вещества принято характеризовать суммой   | s = a + t + r + d = 1, | (14.5) |  где: s - относительная, то есть приведенная к единице, величина излучения, a - коэффициент поглощения, t - коэффициент пропускания, r - коэффициент отражения и d - коэффициент рассеяния потока излучения веществом. Так как сигнал в определении (14.5) разделяется на поглощаемую, проходящую, рассеиваемую и отраженную компоненты при прохождении через вещество, то информационный поток в приемнике можно также подразделить, вслед за Н. Винером[118], включая сюда компоненты не только связанной a и свободной t, но и свободно-связанной r и связанно-свободной d информации. Формализация и определение семантики первой пары компонентов, нам кажется наиболее актуальной. Поэтому в первом приближении ограничимся моделированием информационных кодов цветового пространства путем его представления через относительную сумму длин волн li как функцию lо. При этом очевидное условие согласования алфавитов излучения и вещества дает возможность определения свободной t и связанной a информации: Здесь lо – длина волны, определяемая по функции (14.3), и, в свою очередь, определяющая доминирующий цвет распределением вероятностей li в (14.2); l1 и l2 – длины волн (коррелирующие с парой дополнительных цветов), которые с вероятностями a и t при аддитивном сложении дают ахромный цвет излучения slо; s, a и t – относительные количества исходной, связанной и свободной информации (см. ниже), которые могут быть представлены, к примеру, спектральными коэффициентами яркости, поглощения и пропускания, соответственно[119]. Согласно равенству (3), коэффициенты s, a и t можно полагать вероятностями осуществления релевантных кодов li, по условию (5) [2, 3]. Действительно, поскольку они моделируют относительное количество информации в потоке, то могут быть представлены в виде отношений   | s = I 0/ I 0; | (14.7) |   | t = I / I 0 | (14.8) |   | a = (I 0 - I) / I 0 | (14.9) |  Здесь I0 – исходное количество информации (на входе); I – количество преобразованной в системе информации, которую можно отнести к свободной (на выходе); (I0 - I) – количество связанной в системе информации. Таким образом, именно относительные (то есть приведенные к I0) величины определяют вероятности связанных и/или свободных состояний информации в системе. Обратим внимание на величину a, смысл которой в (6), вообще говоря, коррелирует с известным понятием коэффициента полезного действия и, в частности, с избыточностью сигнала: (n-no)/n, где no и n – минимальная и текущая длина, соответственно. Иначе говоря, вероятность a может характеризовать своего рода энтропийную тенденцию (шумы, нагревание и т.п.), что позволяет соотнести a с пассивным характером связанной информации. В соответствии с этим отнесением t может определять также пассивный (потенциальный) характер свободной (то есть, не взаимодействующей по коду l1 с компонентами системы) информации. Согласно же теории вероятностей, величина 1/t будет определять негэнтропийный активный (актуализированный) характер связанной информации, которая взаимодействует с компонентами системы по коду l1. Вообще говоря, любая система воспринимает только ту информацию, которую она способна поглотить. Как показано в § 10.2, эта часть информации будет обладать резонансными характеристиками, общими с компонентами поглощающей ее системы. При этом воспринятая (поглощенная) информация, или окостеневшее, загустевшее состояние информации, по Н. Винеру, может являться той самой внутренней структурной информацией, которые мы называем компонентами интеллекта и обозначаем хром-планами. Так, в ЕИ мы выделили триаду хром-планов, которые в самом деле, воспринимают специфические цвета (см. табл.1.5, 1.8 и др.). Показателен именно резонансный характер взаимодействия хром-планов с заданными цветами: они и несут в себе специфические черты компонентов, и взаимодействуют с внешней средой на этой основе, и обладают собственным специфическим алфавитом, во всех аспектах взаимодействия с различными видами информации. Итак, под связанной мы понимаем такой вид информации, который коррелирует с составом компонентов и межкомпонентных взаимодействий системы по типу винеровских относительно устойчивых функциональных состояний систем, обладающих внутренней структурной информацией. Всю остальную информацию в приближении (14.6) можно отнести к свободной. Отсюда несложно дать рабочее определение “информации”, которое подразумевает учет и энтропийных, и негэнтропийных характеристик сигнала: Информация – это согласованное распределение вероятностей источника по релевантным кодам связанных и свободных состояний приемника. Согласно закону сохранения энергии, это определение позволяет представить условие нормировки вероятностей (14.5) как принцип сохранения вероятностей состояний в замкнутой системе и в пределах приближения (14.6) записать: Согласно формуле (14.6), принцип (14.10) позволяет оценить относительные количества связанной a и свободной t информации по кодам li, которые были заданы вероятностями (14.7-9):   | a = (l2 - l0) / (l2 - l1), | (14.11) |   | t = (l0 - l1) / (l2 -l1), | (14.12) |  где a и t характеризуются также отношениями одноименных величин, но уже разностей, которые включают их распределение по взаимосогласованным кодам li. Отсюда несложно выразить количество исходной I0, связанной Ia и свободной It информации в абсолютных единицах через разности распределения вероятностей li:   | I0 = i (l2 - l1), | (14.13) |   | Ia = i (l2 - l0) | (14.14) |   | It = i (l0 - l1), | (14.15) |  где i - – спектральная плотность информации (бит×нм-1). .Приведенные зависимости позволяют предположить возможным принцип сохранения информации в замкнутой системе (I0 = Ia + It). В прагматических целях сопоставим эти определения с теоретическими и экспериментальными данными. Согласно закону Бугера-Ламберта, ослабление излучения на элементарном слое вещества пропорционально потоку излучения и толщине этого слоя. Следовательно, исходное количество информации Io после прохождения сигнала (физического процесса, несущего информацию) через элементарный компонент dc системы С уменьшается на dI, откуда где m = – dI / Io dс – коэффициент поглощения потока излучения. Величина m равна относительному уменьшению – dI/Io информационного потока на единичном компоненте, то есть количеству информации, которое поглощается в единицу времени единичным компонентом системы. Поскольку m определяется согласованием свойств потока и системы, далее мы будем называть эту величину показателем связывания информации системой. Как следует из равенств (14.6) и (14.13-15), m связана с уровнем согласованности алфавитов информационного потока Io и компонентов системы С по длине волны li. Полное согласование, то есть постоянство m для ахромного потока и системы однородных компонентов позволяет интегрировать уравнение (11.16)   | Io ò It dI / Io = –mo ò с dс, | (14.17 |  Отсюда получаем   | Т = ln(It / Io) = –mс, | (14.18) |  или, согласно (14.8)   | t = It / Io = exp (–mс), | (14.19) |  где t – коэффициент свободной информации, согласованный в выражении (14.6) по коду l2; m – показатель связывания информации, согласованный по коду l1; с – число компонентов системы, на которое приходится m связанной информации. Величина m в двоичной системе счисления (m2 = 3,32m) измеряется в битах при измерении с в бит-1. Из равенств (14.10) и (14.19) следует, что вероятность осуществления кодов li взаимосвязана с набором a и t, то есть является показательной функцией именно произведения mс и может быть выражена как   | a = 1 – exp (–mс)., | (14.20) |  Строго говоря, показательный закон (14.19) и (14.20) имеет место для монохромных потоков информации (Dl®0). Поскольку для реальных, то есть полихромных потоков величина m является функцией длины волны, то информационные потоки различных l будут обладать различным уровнем согласования алфавитов, согласно аппаратной функции приемника ¦(Dl) и равенствам (14.4) и (14.11-15). В нашей модели, то есть для ахромных потоков источника и цветов приемника m¹¦(l), что будет показано ниже. Для практической оценки связанной информации введем величину информационной плотности D, которая, согласно (14.18) и логарифмированию вероятностей, будет подчиняться свойству аддитивности:   | D = ln (1 /t) = mc | (14.21) |  Как и в случаях (14.18-20), отсюда следует, что величина информации коррелирует не с отдельными величинами m и с, а с их произведением. Согласно формулам (14.6), (14.15) и (11.19), величину информационного пропускания T = -mc можно соотнести с вероятностным отношением свободной It к исходной Io информации, что, вообще говоря, позволяет разделить эти параметры. Отсюда появляется основание для распространения свойства аддитивности на величину m и для свободной информации:   | åmi = – å (1/ сi) log2t | (14.22) |  Где åmi – показатель (связанной компонентами сi) информации, бит; сi – количество компонентов системы, приходящееся на m бит информации согласно их взаимообусловленности в формулах (14.18-21); t – вероятности состояний с распределением вероятностей по коду пропускания, то есть l2 в приближении (14.6). Справедливость равенства (14.22) для оценки количества связанной информации по величине свободной подтверждается равенством нулю суммы вероятностных величин информационной плотности в формуле (14.21) и пропускания в (14.18): D + T = 0. Произведение же этих величин при совместном проявлении кодов li, согласно теории вероятностей, должно быть равно единице, что и подтверждается на опыте: D ·T = 1. Рассмотрение частных случаев зависимости m(t) для ахромных потоков источника и аналогичных цветов приемника показывает, что при t=1 m=0, при t ®0 m®0 и при t = a m=1. В связи с этим нельзя не отметить определенную общность функции (14.22) с известным представлением количества информации Хартли-Шеннона:   | Н = å рi log2 рi, | (14.23) |  где Н – количество информации в сообщении, состоящем из i независимых состояний с вероятностями рi. К этой общности мы вернемся ниже. Предложенная выше модель и, в частности, соотношения (14.21) и (14.22), на наш взгляд, имеют четкий физический смысл, проявляющийся при учете всех сторон взаимодействия информационного потока Io с системой компонентов с i.   
 Дата добавления: 2015-09-27 | Просмотры: 603 | Нарушение авторских прав 
 
 
 
 
 |