Кибернетика

как детерминистическое толкование (достижение цели в данной конкретной ситуации), так и стохастическое (в среднем, за какой-то промежуток времени). S0-системы диалектически объединяют противоречивые свойства S1, S2 и S3-систем. S0-системы являются основным объектом системного исследования. Это сложные системы, способные управлять своим поведением. Исследование S0-систем, механизмов формирования целей, принятия решений и управления поведением составляет основной предмет системологии. Любые системы можно рассматривать как частный случай S0-систем.


Вопросы и упражнения


  1. Что называется R-преобразованием? Приведите примеры систем с детерминированным R-преобразованием.

  2. Что общего и в чем различие у S2 и S3 –систем?

  3. Какие типы систем изучают гуманитарные науки и почему?

  4. Чем характеризуются S0-системы?


3.2. Функции системы


Всякий объект интересен результатом своего существования, местом, которое он занимает среди других объектов в окружающем мире. Это соответствует целенаправленности человеческой деятельности. Сталкиваясь с новым объектом, мы, прежде всего интересуемся его функциями, поэтому первым описанием проблемы или системы должно быть функциональное описание. Функциональное описание исходит из того, что всякая система выполняет некоторые функции: просто существует, служит областью обитания другой системы, обслуживает систему более высокого порядка, является контрольной для некоторого класса систем, служит средством или исходным материалом для создания более совершенной системы и т.д. Система может быть однофункциональной, или многофункциональной. В зависимости от степени воздействия на внешнюю среду и характера взаимодействия с другими системами, функции можно распределить по возрастающим рангам: пассивное существование, материал для других систем; обслуживание системы более высокого прядка; противостояние другим системам, среде (выживание); поглощения (экспансия) других систем и среды; преобразование других систем и среды.

Функциональное описание иерархично. Функция системы представляется числовым функционалом, зависящим от функций, описывающих внутренние процессы, либо качественным функционалом (типа упорядочивания: лучше-хуже).

Обычно функция системы выполняется, если параметры системы и процессы ограничены определенными пределами, вне которых система разрушается либо радикально меняет свойства.

Функционал, количественно или качественно описывающий деятельность (действие) системы, называют функционалом эффективности.

Если функционал эффективности больше некоторого условного порога, то считается, что функция выполняется, если меньше – не выполняется. Введение порога, как и определение функции, выражает позицию того, кто составляет описание. Несмотря на разнообразие систем и функций, характер зависимости эффективности от произвольного параметра типичен. Это обстоятельство объясняет общность функционального описания независимо от физического содержания системы. Зависимость включает три характерные области: слабой и сильной связи и насыщения.

Существует область, где система подавляется средой, область, где она соревнуется с ней, и область, где система становится малочувствительной к внешним воздействиям. Если функция системы состоит в сохранении своего состояния, например температуры, а внешнее влияние включает приток тепла, то система противостоит этому влиянию при помощи теплопроводности и выравнивания температуры. В наиболее общем виде идея противодействия любой системы внешнему влиянию выражена принципом Лешатье: поддержка стабилизирующего процесса требует некоторого уменьшения эффективности по сравнению с первоначальным значением.

Существуют системы, которые реагируют на внешнее воздействие, порождая в себе процессы не ослабления воздействия, а активной перестройки и противодействия, которые могут изменять параметры среды или использовать первоначально неблагоприятные изменения в свою пользу. При этом за уменьшением эффективности может последовать ее увеличение, превышающее первоначальную величину. Может произойти перестройка, которая повлечет не только изменение состояния и появление новых процессов, но и изменение функций и пределов работоспособности системы.

Функциональное описание системы можно задать семеркой:

Sf={T,x,C,Q,y,jh},

Где T-множество моментов времени, х - множество мгновенных значений входных воздействий, С={c: T®x} – множество допустимых входных воздействий; Q –множество состояний; y- множество значений выходных величин; Y={u:T®y}-множество выходных величин; f={TґTґTґc®Q}-переходная функция состояния; h:TґQ®y – выходное отображение; с- отрезок входного воздействия; u – отрезок выходной величины.

Такое описание системы охватывает широкий диапазон свойств.

Недостаток данного описания – не конструктивность: трудность интерпретации и практического применения. Функциональное описание должно отражать следующие характеристики сложных и слабо познанных систем: параметры, процессы и иерархию.

Примем, что система S выполняет N функций y1, y2, …,ys, …,yN, зависящих от n-процессов F1, F2, …,Fi, …, Fn. Эффективность выполнения s-й функции

Эs = Эs(ys) =Э(F1, F2, …,Fi, …, Fn) =Эs({Fi}), i=1…n, s=1…N.

Общая эффективность системы есть вектор-функционал Э={Эs}. Эффективность системы зависит от огромного количества внутренних и внешних факторов. Представить эту зависимость в явной форме чрезвычайно сложно, а практическая ценность такого представления незначительна из-за многомерности и многосвязности. Рациональный путь формирования функционального описания состоит в применении такой многоуровневой иерархии описаний, при которой описание более высокого уровня будет зависеть от обобщенных и факторизованных переменных низшего уровня.

Иерархия создается по уровневой факторизацией процессов {Fi} при помощи обобщенных параметров {Qi}, являющихся функционалами {Fi}. Предполагается, что число параметров значительно меньше числа переменных, от которых зависят процессы. Такой способ описания позволяет построить мост между свойствами взаимодействующих со средой элементов (подсистемами низшего уровня) и эффективностью системы.

Процессы {Fi(1)} можно обнаружить на выходе системы. Это процессы взаимодействия со средой. Будем называть их процессами первого уровня и полагать, что они определяются:

a) параметрами системы первого уровня - Q1(1), Q2(1),…, Qj(1),…, Qm(1) ;

б) активными противодействующими параметрами среды, непосредственно направленными против системы для снижения ее эффективности - b1, b2,…, bk,…, bК;

в) нейтральными (случайными параметрами среды) c1, c2,…, cl,…, cL;

г) благоприятными параметрами среды d1, d2,…, dp,…, dP.

Среда имеет непосредственный контакт с подсистемами низших уровней, воздействуя через них на подсистемы более высокого уровня иерархии, так что Fi*= Fi*({bk},{cl}, {dp}). Путем построения иерархии (параметры b-го уровня - процессы (b-1)-го уровня - параметры (b-1)-го уровня) можно связать свойства среды с эффективностью системы.

Параметры системы {Qj} могут изменяться при изменении среды, они зависят от процессов в системе и записываются в виде функционалов состояния Qj1(t). Собственным функциональным пространством системы W называется пространство, точками которого являются все возможные состояния системы, определяемое множеством параметров до уровня b: Q={Q(1), Q(2), …Q(b) }. Состояние может сохраняться постоянным на некотором интервале времени Т.

Процессы {Fi(2)}не могут быть обнаружены на выходе системы. Это процессы второго уровня, которые зависят от параметров Q(2) подсистем системы (параметров второго уровня). И так далее.

Образуется следующая иерархия описания: эффективность (конечное множество функционалов) – процессы первого уровня (функции) – параметры первого уровня (функционалы) - процессы второго уровня (функции) – параметры второго уровня (функционалы) и т.д. На каком-то уровне наши знания о функциональных свойствах системы исчерпываются, и иерархия обрывается. Обрыв может произойти на разном уровне для разных параметров (процессов), причем как на процессе, так и на параметре.

Внешние характеристики системы определяются верхним уровнем иерархии, поэтому часто удается ограничиться описанием вида ({Эi},{yS}, {Fi(1)}, {Qj(1)}, {bk}, {cl}, {dp}). Число уровней иерархии зависит от требуемой точности представления входных процессов.


Вопросы и упражнения

  1. Чем вызвана необходимость функционального описания системы?

  2. Как ранжируются функции систем в зависимости от степени воздействия на внешнюю среду и характера взаимодействия с другими системами?

  3. В чем состоит иерархия функционального описания?

  4. Что определяет функционал эффективности?

  5. В чем заключается принцип Лешатье? Приведите пример.

  6. Какие характеристики сложных и слабо познанных систем должно отражать функциональное описание?

  7. Назовите достоинства и недостатки общей формулы функционального описания.

  8. Постройте иерархию функционального описания системы “автомобиль” (все функционалы описывайте качественно).

  9. Запишите общую формулу функционального описания для системы “учебная группа”.


3.3. Время в описании систем


Так как Э=Э(Q(1)) и Q(1)=Q(1)(b,c,d), то функциональное описание системы можно представить следующим образом:

Sf= { Q(1)(t), Q(2)(t), …Q(b) (t)}.

Функции времени, применяемые при описании систем, имеют особый смысл. Запись Fi(t), i=1,…,n, вообще говоря, предполагает, что все процессы протекают в едином и изотропном времени. В сложных системах время относительно: в зависимости от свойств подсистем, в которых протекает процесс, и от пространственного направления процесса, его скорость может быть различной, это равносильно изменению масштаба времени. Для описания физических систем Эйнштейн ввел четырехмерный пространственно-временной континуум и показал, как зависит ход времени от скорости относительного движения. Мы привыкли оценивать различие в ходе лабораторного времени и собственного времени движущейся физической системы через изменение массы, которая в нерелятивистском мире является устойчивым измеряемым инвариантом, а в релятивистском может служить показателем “меры релятивизма”.

Системный подход к проблеме отсчета времени усложняется как из-за возможности релятивистских скоростей, так и потому, что однотипные вещественно-энергетические процессы могут (в зависимости от свойств системы) протекать с различной скоростью. Для жизнедеятельности системы важно число циклов соответствующих процессов (например, делений клетки), а не лабораторное время. Здесь нет столь удобного для измерения показателя, как масса в физических системах. Основную роль играют информационные процессы, которые мы плохо умеем вычислять, и не умеем измерять.

Если предположить, что относительная скорость информационных процессов способна порождать изменение относительного масштаба времени, то величину энтропии системы можно рассматривать как показатель этого изменения: чем меньше энтропия, тем инерционнее система к внешнему воздействию. Физический смысл этого предположения состоит в том, что ускорение процессов (при прочих равных условиях) требует повышения уровня организации.

Если при одинаковом увеличении энергии двух систем (в остальном одинаковых) на величину DQ скорость процессов в первой оказалась больше, чем во второй, то температура первой системы должна повыситься меньше, так как большая часть энергии расходуется в соответствии с назначением системы, а меньшая – на ее нагрев. Следовательно, энтропия первой системы будет ниже, чем второй (в лабораторной системе отсчета).

Живые существа имеют внутренний отсчет времени (биологические часы), который определяет всю их жизнедеятельность. Продолжительность жизни таких систем следует исчислять по эти часам, а не по лабораторным, до которых системе, в сущности, нет дела. На протяжении жизни системы ход внутреннего времени, измеренный по лабораторным часам, неодинаков: начиная жить, существо растет (и взаимодействует со средой) несравненно быстрее, чем впоследствии, а к моменту смерти “ход времени замедляется до нуля”. Если принять, что замедление хода времени приблизительно пропорционально сложности системы (понимая под сложностью количество информации, необходимое для описания системы), то можно представить себе, что относительный масштаб времени в течении жизни системы (по представлению внешнего наблюдателя) изменяется на много порядков. Например, в сжатые сроки эмбрионального развития живое существо проходит весь путь естественной эволюции.


Вопросы и упражнения

  1. В чем состоит относительность времени в сложных системах? Приведите примеры.

  2. Что можно считать инвариантом при описании временных процессов в системах?


Глава 4. Морфологическое описание системы


4.1. Состав элементов


Морфологическое описание системы должно давать представление о строении системы, ее подсистемах и элементах. Оно не может быть исчерпывающим. Глубина описания, уровень детализации, т.е. выбор элементов, внутрь которых описание не проникает, определяется назначением описания. Морфологическое описание иерархично. Конкретизация морфологии дается на стольких уровнях, сколько их требуется для создания представления об основных свойствах системы. В иерархии описания может существовать такая ступень, где прежние описания, применявшиеся на более высоких ступенях, становятся непригодными и необходимо применить принципиально новый способ описания.


Изучение морфологии начинается с элементного состава (рис. 2.). Под элементом в данном случае понимается подсистема, внутрь которой описание не проникает. Элементный состав может быть гомогенным (содержать однотипные элементы), гетерогенным (содержать разнотипные элементы) и смешанным. Однотипность не означает полной идентичности и определяет только близость основных свойств. Гомогенности, как правило, сопутствуют избыточность и наличие скрытых возможностей, дополнительных, неиспользованных ресурсов. Гетерогенные элементы специализированы. Они экономичны и могут быть эффективными в узком диапазоне внешних условий, но быстро теряют эффективность вне этого диапазона. Гомогенные системы стоят выше гетерогенных по уровню организации. Иногда элементный состав определить не удается, и его считают неопределенным.


Вопросы и упражнения


  1. Для чего предназначено морфологическое описание системы?

  2. Какие системы считаются гомогенными, гетерогенными и смешанными?

  3. Какого типа элементы преобладают в системе “учебная группа”?


4.2. Свойства элементов


Важным признаком морфологии является назначение (свойства) элементов. Выделяют информационные, энергетические и вещественные элементы. Передача информации требует энергии, перенос энергии невозможен без информации. Важно отметить, что преобладает. Расход энергии в системах электрической связи ничтожен по сравнению с переносом энергии по линиям электропередачи, а количество информации, которое переносится силовыми потоками электронов, ничтожно по сравнению с тем, которое передается средствами связи. Информационные элементы предназначены для приема, запоминания и преобразования информации. Это преобразование может состоять:

  1. В изменении вида энергии, который несет информацию. Например, электромагнитная энергия световых лучей, несущих изображение, преобразуется в электрическую энергию при помощи кинескопа или глаза.

  2. В изменении способа кодирования информации. Например, музыкальный код преобразуется в код электрических импульсов, которые передаются от уха в головной мозг.

  3. В сжатии информации сокращением избыточности. Например, уменьшение разрешающей способности, отбор признаков.

  4. В принятии решения (распознавание, выбор поведения).

Определение. Обратимыми называются преобразования, не связанные с потерей (созданием) информации.

Накопление информации (запоминание) является обратимым преобразованием в том случае, если не происходит потерь информации в течение времени хранения. Принятие решений связано с потерей информации. Эффективность выполнения информационной функции определяется вносимыми искажениями и непредусмотренными схемой работы элемента потерями информации, которые отрицательно влияют на работу других элементов и системы в целом.

Энергоснабжение элементов, выполняющих информационные функции, может осуществляться:

  1. при помощи самого информационного сигнала (который должен обладать соответствующим избытком энергии);

  2. при помощи отдельного энергетического сигнала, поступающего извне;

  3. за счет внутренних ресурсов (энергия запасена в самом элементе).

Функции энергетических элементов связаны с преобразованием энергии. Цель преобразования – выработать необходимую системе энергию в той форме, в которой она может потребляться другими элементами. Для энергетических элементов большое значение имеет коэффициент полезного действия, который в конечном итоге определяется эффективность элемента.

Преобразование энергии состоит в изменении параметров энергетического потока. Поток входной энергии может поступать извне (из среды) либо от других элементов (в которых он запасен на время жизни системы). Выходной энергетический поток направлен в другие системы, либо в среду (для ее преобразования или сохранения определенных условий, например температуры). Процесс преобразования энергии нуждается в информации, которая может быть сосредоточена в энергетическом элементе. Носителем информации может быть как преобразуемый, так и сторонний энергетический поток.

Интенсивность и содержание процесса преобразования энергии могут изменяться в течение жизни системы. Необходимая для этого информация может поступать от других элементов либо вырабатываться энергетическим элементом, который в этом случае выполняет смешанную информационно-энергетическую функцию.

Элементы, преобразующие вещество (кроме сырья, т.е. исходного вещества), нуждаются в энергии и информации. То и другое может содержаться в самом вещественном элементе, поступать от других элементов системы или из среды.

Преобразование вещества может быть механическим (штамповка деталей), химическим (производство пластмассы), физическим (образование плазмы), биологическим и т. д. В сложных системах преобразование вещества носит смешанный характер. Вещество можно использовать для создания энергии в подсистемах со смешанной функцией преобразования вещества и энергии. Вещество можно использовать как носитель энергии и информации в системах со смешанными функциями преобразования вещества, энергии и информации. Например, пища живых существ является источником химической энергии и одновременно носителем информации.

Выделяют неопределенные, или нейтральные элементы. Любые процессы (в том числе и случайные) приводят к преобразованию вещества, энергии или информации.

Пример. Столкновение молекул может привести к изменению направления и скорости их движения (энергетическое и информационное преобразование), к химической реакции (изменение вещества, преобразование энергии и информации), но может ни к чему не привести. Предусмотреть результат действия молекул можно только в статистическом виде, а когда речь идет об элементе, состоящем из двух или нескольких молекул, предусмотреть их исход невозможно. Точно так же невозможно предусмотреть и определить назначение таких элементов, как атом твердого тела, планета в Солнечной системе или звезда в Галактике.

Применяя к естественным объектам емкий термин “назначение”, следует быть осторожным, так как многое зависит от позиции наблюдателя. Астрофизик, изучающий энергетические процессы, будет вполне прав, утверждая, что Солнце несет энергетическую функцию в системе. В свое время было большим искушением принять квазар за информационный элемент некоторой сверхсистемы, и т.д.

В общем плане, использование категории “назначение” для определения свойств системы нежелательно. Поэтому, когда свойство не определено, его нельзя предсказать или оно не носит стабильного характера, будем называть его нейтральным ( рис. 3).

Морфологические свойства системы существенно зависят от характера связей ( рис. 4). Выделим информационные, энергетические и вещественные связи, определив их в том смысле, в каком были определены информационные, энергетические и вещественные свойства. Энергетические связи предназначены для переноса энергии между элементами, а информационные – для переноса информации. Связи для передачи материала переносят вещество, но одновременно энергию и информацию, так что характер связи определяется удельным весом соответствующего компонента.


Возможны и смешанные связи. Выделим прямые, обратные и нейтральные связи. Прямые связи предназначены для передачи вещества, энергии, информации или комбинаций от одного элемента к другому в соответствии с последовательностью выполняемых функций. Качество связи определяется ее пропускной способностью и надежностью. Обратные связи в основном имеют функцию управления процессами.

Наиболее распространены информационные обратные связи. Обратная связь предполагает некоторое преобразование компонента, поступающего по прямой связи, и передачу результата преобразования обратно, т.е. в направлении, противоположном функциональной последовательности (и прямой связи) к одному из предыдущих элементов системы. Преобразование


может быть тождественным (информации в информацию) или нетождественным (изменение состава вещества преобразуется в информацию или энергию).

Системы, способные адаптироваться или целенаправленно влиять на окружающую среду, должны иметь обратные связи. Нейтральные связи непредсказуемы, или случайны. Однако нейтральные связи могут сыграть определенную роль при адаптации, служить исходным ресурсом для формирования прямых и обратных связей, резервом.

В определенных условиях возможно преобразование связей (прямых в обратные или нейтральные и т.д.). Морфологическое описание может включать указание на наличие и виды связей, содержать общую характеристику связей либо их качественные и количественные данные.

Структурные свойства систем определяются характером и устойчивостью отношений между элементами. По характеру отношений между элементами структуры делятся на многосвязные, иерархические и смешанные. Пространственное расположение элементов и область пространственной локализации системы также описывается структурой. Наиболее устойчивы детерминированные структуры, такие, в которых отношения либо неизменны, либо изменяются по некоторому закону. Если отношения между элементами описываются вероятностными законами, структура называется вероятностной. Существуют также хаотические структуры, в которых элементы вступают в отношения непредсказуемым образом. Возможны смешанные структуры, в которых пределы и направления образования нестабильностей определены и ограничены заложенным в структуру детерминизмом. Свойства структуры зависят от действия внутренних сил, свойств элементов и связей. Детерминизм, как и недетерминизм, имеет иерархию совершенства. Низкий уровень – полная неизменяемость, следующий, более высокий – включение и выключение определенных элементов (при соответствующих условиях), еще более высокие – наращивание структуры (из элементов, сформированных из внешней среды) в строго определенном направлении, создание элементов нового типа, но предусмотренных заранее и т.д. Вероятностные структуры в качестве низшего уровня имеют случайные изменения, далее идут изменения целенаправленные, с отбором и т.д. Граница между стабильными и нестабильными структурами высокого уровня не является определенной.

Композиционные свойства систем определяются способом объединения элементов в подсистемы. Будем различать подсистемы: эффекторные (способные преобразовывать воздействие и воздействовать веществом или энергией на другие подсистемы и системы, в том числе на среду), рецепторные (способные преобразовывать внешнее воздействие в информационные сигналы, передавать и переносит информацию) и рефлексивные, способные воспроизводить внутри себя процессы на информационном уровне, генерировать информацию. Композиция систем, не содержащих (до элементного уровня) подсистем с выраженными свойствами, называется слабой. Композиция систем, содержащих элементы с выраженными функциями, называется соответственно с эффекторными, рецепторными или рефлексивными подсистемами; возможны комбинации. Композицию систем, включающих подсистемы всех трех видов, будем называть полной Элементы системы (т.е. подсистемы, в глубь которых морфологический анализ не распространяется) могут иметь эффекторные, рецепторные или рефлексивные свойства, а также их комбинации.

Определение. Морфологическое описание есть четверка:

SM={S, V, d, K}, где

S={Si}i – множество элементов и их свойств (под элементом в данном случае понимается подсистема, вглубь которой морфологическое описание не проникает); V ={Vj}j – множество связей; d - структура; К – композиция.

Все множества считаем конечными.

Будем различать в S:

Состав: гомогенный, гетерогенный, смешанный (большое количество гомогенных элементов при некотором количестве гетерогенных); неопределенный.

Свойства элементов: информационные, энергетические, информационно-энергетические, вещественно-энергетические, неопределенные (нейтральные).

Будем различать во множестве V:

Назначение связей: информационные, вещественные, энергетические.

Характер связей: прямые, обратные, нейтральные.

Будем различать в d:

Устойчивость структуры: детерминированная, вероятностная, хаотическая.

Построения: иерархические, многосвязные, смешанные, преобразующиеся.

Детерминированные структуры либо постоянны, либо изменяются во времени по детерминированным законам. Вероятностные структуры изменяются во времени по вероятностным законам. Хаотические структуры характерны отсутствием ограничений, элементы в них вступают в связь в соответствии с индивидуальными свойствами. Классификация производится по доминирующему признаку.

Будем различать во множестве К:

Композиции: слабые, с эффекторными подсистемами, с рецепторными подсистемами, с рефлексивными подсистемами, полные, неопределенные.

Морфологическое описание, как и функциональное, строится по иерархическому (многоуровневому) принципу путем последовательной декомпозиции подсистем. Уровни декомпозиции системы, уровни иерархии функционального и морфологического описания должны совпадать. Морфологическое описание можно выполнить последовательным расчленением системы. Это удобно в том случае, если связи между подсистемами одного уровня иерархии не слишком сложны. Наиболее продуктивны (для практических задач) описания с единственным членением или с небольшим их числом. Каждый элемент структуры можно, в свою очередь, описать функционально и информационно. Морфологические свойства структуры характеризуются временем установления связи между элементами и пропускной способностью связи. Можно доказать, что множество элементов структуры образует нормальное метрическое пространство. Следовательно, в нем можно определить метрику (понятие расстояния). Для решения некоторых задач целесообразно введение метрики в структурном пространстве.


Вопросы и упражнения

  1. Для чего предназначены информационные элементы? Приведите примеры.

  2. Для чего предназначены энергетические элементы? Приведите примеры.

  3. Какие преобразования считают обратимыми?

  4. Какие типы связей вы знаете?

  5. Какие подсистемы называют эффекторными, рецепторными и рефлексивными? Приведите примеры.

  6. В чем состоят композиционные свойства систем?

  7. Каковы достоинства и недостатки общей формулы морфологического описания?

  8. В чем состоит иерархия морфологического описания?

  9. Составьте морфологическое описание для системы “компьютер”.


Глава 5. Информационное описание системы


5.1. Понятие информации


Информационное описание должно давать представление об организации системы. Термин информация имеет несколько значений:

  1. совокупность каких либо сведений, знаний о чем-либо;

  2. сведения, являющиеся объектом хранения, передачи и переработки;

  3. совокупность количественных данных, выражаемых при помощи цифр или кривых, графиков и используемых при сборе и обработке каких-либо сведений;

  4. сведения, сигналы об окружающем мире, которые воспринимают организмы в процессе жизнедеятельности;

  5. в биологии – совокупность химически закодированных сигналов, передающихся от одного живого организма другому (от родителей - потомкам) или от одних клеток, тканей, органов другим в процессе развития особи;

  6. в математике, кибернетике – количественная мера устранения энтропии (неопределенности), мера организации системы;

  7. в философии – свойство материальных объектов и процессов сохранять и порождать определенное состояние, которое в различных вещественно-энергетических формах может быть передано от одного объекта другому; степень, мера организованности какого-либо объекта (системы).

Определения 1-4 трактуют информацию как сведения, данные, сообщения, сигналы, подлежащие передаче, приему, обработке, хранению и отражающие реальную действительность или интеллектуальную деятельность. В этом смысле информация – отображение в некоторое пространство символов VI. В дальнейшем будем называть ее отображающей информацией, и обозначать Io. Эта величина измеряется двоичными единицами. Если число возможных равновероятных исходов составляло вначале p0, а после получения информации сократилось до p1, то

I0=log2(p0/p1).

Во всех определениях, кроме последнего, информация рассматривается как объединяющая категория, которую можно определить через более простые категории. В последнем определении информация – изначальная, неопределяемая категория, которую нужно изучать через ее свойства, то есть информация материальна (как и вещество и энергия), проявляется в тенденции (свойстве) материи к организации (как энергия к способности к взаимодействию), выражает способность организованной материи к предопределению своих состояний (связывающей пространственные свойства с временными).

То, что это действительно так, вытекает из следующих, наблюдаемых в повседневной практике, свойств S0 – систем. При неизменной морфологии их поведение и функционирование в значительной степени определяются информацией, доставляемой рецепторными подсистемами. Аналогично энергия определяется как общая мера различных процессов и видов взаимодействия.

Физически информация определяет предсказуемость свойств и поведения объекта во времени. Чем выше уровень организации (больше информации), тем менее подвержен объект действию среды.

Возможно, что формы организации взаимно преобразуются в строгих количественных соотношениях, выражаемых при помощи информации. Доказать это можно только экспериментально (как и для количественных форм движения, т.е. энергетических эквивалентов). Количество и ценность информации – взаимодополняющие категории. Можно говорить о количестве ценной информации применительно к заданной цели подобно тому, как мы говорим о количестве ценного вида энергии или вещества.

Формальное определение первичных понятий всегда сложно. Определяя энергию как способность производить работу, мы с самого начала допускаем ошибку: энергия – не способность, а нечто, обладающее способностью. Не смотря на это, мы пользуемся этим определением, понимая и признавая его неполноценность. Энтропия есть мера беспорядка, негэнтропия – мера порядка, организованности. Но определения организованности в физике нет, существует интуитивное восприятие этого понятия. Организованность есть первичная категория.

Организованность, упорядоченность системы – способность предопределять свою перспективу, свое будущее. Разумеется, перспектива системы зависит и от среды. Но ведь и способность системы совершать работу зависит от среды, что не влияет на определение энергии.

Чем беспорядоченнее система, тем больше зависит ее перспектива от случайных факторов (внутренних и внешних). Повышение упорядоченности означает увеличение зависимости между факторами, определяющими поведение (состояние) системы. Применительно к внешним случайным факторам это означает наличие в системе возможностей установления соответствия между свойствами среды и функциями системы. Установление соответствия требует отображения среды в системе.

Таким образом, меру организованности можно понимать как потенциальную меру предсказуемости будущего системы, количественную характеристику возможности предвидения состояния (поведения) системы. Информация об организации системы – это количественная характеристика возможности предвидения ее состояния (поведения) на соответствующем уровне детализации системы. Информация о среде - количественная характеристика возможности предвидения воздействия среды. Информация об организации системы составляет часть ее внутренней информации.

Теория информации занимается проблемами обработки и передачи информации с учетом избыточности, шумов, потерь и кодирования. Ценность информации рассматривается с позиций поставленной цели, эффективности решения задачи.

Для любой системы ценность имеет то, что определяет ее дальнейшую судьбу – существование, поведение, развитие. Этот критерий можно применить и к информации: если закодировать расположение элементов системы и отделить ту часть кода, которая определяет перспективу системы, то ее можно назвать “полезной информацией” и оценивать полезность степенью влияния на перспективу. Такой подход вытекает из единства энтропии и информации и не требует сторонней оценки и участия в ней надсистемы. Таким образом, информация выражает свойства организации. Особенно ценна та информация, которая образовавшись в результате случайного взаимодействия или привнесенная извне, способна к самосохранению и самопрограммированию, т.е. увеличению влияния на перспективу системы.

Некоторая структурная форма может быстро и бесплодно разрушиться, тогда ценность ее равна нулю, сколько бы бит информации она ни содержала. Другая структурная форма может оказаться устроенной таким образом, что, несмотря на воздействие среды, сохранит себя длительное время, стабилизируя свойства системы и направляя их изменение. Информация как сущность материи должна оцениваться именно с таких прогностических позиций. В то же время, для сторонней системы (в том числе надсистемы) ценность может иметь совсем другая информация, в частности, быстро разрушающаяся и не имеющая значения для первой рассматриваемой системы.

Внутренняя информация системы есть информация самосохранения, это и дает право говорить об информации как о неотъемлемом свойстве материи.

Поскольку информация связана с вероятностной мерой состояния системы, то можно утверждать, что ценность информации возрастает с увеличением ее влияния на вероятность события, которое она представляет. Наивысшую ценность имеет информация, которая делает это событие почти достоверным при условии, что в отсутствие информации оно почти невозможно.

Таким образом, отображающая информация – концептуальное понятие, ценность информации – конкретное понятие, относящееся к конкретной задаче.

Определение 5 относится к наследственной информации и информации развития. Некоторые ученые считают, что наследственная информация должна измеряться по числу мутантных генов (а не по общему числу всех генов), следовательно, числом гетерозиготных генов. Гомозиготные гены не несу информации, хотя они выполняют самую ответственную функцию, определяя нормальную структуру организма. Количество информации, которое несет каждый ген, равно log2p, где р – вероятность нахождения гена в популяции. Для гомозиготных генов эта величина близка к нулю, для мутантных может достигать 20, 30 и более единиц.

Чтобы система действовала и взаимодействовала со средой, она должна потреблять информацию из среды и сообщать информацию среде. Этот процесс мы называем “информационным метаболизмом”.

Он совместно с вещественным и энергетическим метаболизмом образует полный метаболизм. Не всякая информация (как не всякое вещество и энергия) нужны системе: нужна информация о чем-то определенном (качественная характеристика) и с соответствующей степенью подробности (количественная характеристика). Когда говорится о количестве информации, имеется в виду, что эта информация касается одного и того же.

Количество и ценность информации – обобщенные понятия, которыми можно пользоваться применительно к информации определенного качества, но не вообще.

Дифференциальная характеристика информационного метаболизма – векторный показатель, т.е. плотность потока информации. Интегральной характеристикой может служить (по аналогии с веществом и энергией) скалярный показатель, т.е. количество информации. Для информации не сформулированы законы сохранения так, как для вещества и энергии. Тем не менее, без общей характеристики обменных информационных процессов описание взаимодействия системы со средой будет неполным.

Функциональные процессы в системе тесно связаны с информационными. Источником информации для функционирования системы является внутренний ресурс и среда, а носителем – вещество (морфологическая информация) и энергия (сигналы). Восприятие и использование информации из среды также требует внутренней информации.

Пример 1. При износе механической детали или электронного блока теряется информация (потери вещества могут быть либо незначительными, либо вовсе отсутствовать). Заменить деталь исправной означает восполнить информационную потерю системы (в данном случае при помощи системы более высокого порядка). Априорная информация заключена в остальных деталях (блоках) системы, которые предполагаются исправными и без которых новая деталь бесполезна.


Пример 2. Живые существа воспринимают морфологическую информацию через пищу и используют ее для восстановления и развития организма. Информация, определяющая функции пищеварения и усвоения морфологической информации, сосредоточена главным образом в ДНК, РНК и ферментах пищеварительных органов.

Пример 3. Человек воспринимает образную и семантическую информацию, поступающую от рецепторов, благодаря понятийному и категорийному аппарату, выработанному ранее. Язык эмоций категорий искусства не может быть выражен ни на каком естественном или формальном языке. Искусство требует для восприятия априорных данных, т.е. определенной подготовки. Фраза “Истинное искусство понятно всем” означает только то, что эстетическое наслаждение, порождаемое некоторыми видами искусства, основано на весьма распространенных и легко усваиваемых понятиях, возникающих у человека в ранние годы жизни в процессе общения с природой и другими людьми. Ассоциация возникает в процессе формирования личного опыта: “Запах может напоминать нам весь цветок, но только если он был нам ранее известен”. Общественное мнение формируется на основании обобщенных наблюдений и укоренившихся представлений.

Существует экстремальная зависимость количества воспринимаемой информации от количества априорной информации. При нулевой и бесконечной априорной информации из носителя черпается нулевая информация. Существует некоторое значение априорной информации, при котором усваивается максимальная информация. Для максимального усвоения, морфология носителя априорной информации должна быть достаточно близкой к морфологии носителя новой информации (элементы новой детали должны сопрягаться с остальными деталями машины).

Определение 6 относится к организации системы, это внутренняя, структурная информация системы.

Энтропия системы есть мера неопределенности системы. Количественно ее можно представить в виде зависимости:

где рi – вероятность i-го состояния.

Устранение энтропии (неопределенности) означает ограничение числа независимых состояний. Для систем, изменяющих свое состояние во времени под действием внутренних сил или среды, число возможных независимых состояний n уместно отнести к некоторому интервалу времени Т, поскольку, вообще говоря, n=n(t).

Для системы, не способной изменять свое состояние, e=0.

Для системы, самостоятельно выбирающей свое состояние независимо от среды, идеально противостоящей внешнему воздействию, иначе говоря, идеально организованной, e=0.

Для неидеальной системы последующее состояние связано с предыдущим через вероятность pi, и в формуле для энтропии величины pi выражают меру независимости последующих состояний от предыдущих. При полностью взаимосвязанных состояниях (идеальная организация) система, в сущности, имеет единственное состояние

Если Вам нужна помощь с академической работой (курсовая, контрольная, диплом, реферат и т.д.), обратитесь к нашим специалистам. Более 90000 специалистов готовы Вам помочь.
Бесплатные корректировки и доработки. Бесплатная оценка стоимости работы.

Поможем написать работу на аналогичную тему

Получить выполненную работу или консультацию специалиста по вашему учебному проекту
Нужна помощь в написании работы?
Мы - биржа профессиональных авторов (преподавателей и доцентов вузов). Пишем статьи РИНЦ, ВАК, Scopus. Помогаем в публикации. Правки вносим бесплатно.

Похожие рефераты: