Xreferat.com » Рефераты по коммуникации и связи » Информационный процесс в автоматизированных системах

Информационный процесс в автоматизированных системах

ОГЛАВЛЕНИЕ


Введение

1. Информационные процессы

1.1. Поиск информации.

2. Измерение информации

2.1. Измерение информации в быту (информация как новизна)

2.2. Измерение информации в технике

2.3. Измерение информации в теории информации (информация как снятая неопределенность)

3. Кодирование информации

3.1. Кодирование информации в компьютере

3.2. Кодирование текстовой информации

3.3. Кодирование графической информации

3.4. Кодирование звука

3.5. Кодирование чисел

3.6. Понятие о системах счисления

3.6.1. Что такое система счисления

3.6.2. Двоичная система счисления

3.6.3. Восьмеричная система счисления

3.6.4. Шестнадцатеричная система счисления

3.6.5. Переводы чисел, простейшая арифметика в системах счисления

3.6.6. Как представляются в компьютере целые числа

3.6.7. Смешанные системы счисления

4. Информатизация общества

4.1. Роль средств массовой информации

4.2. Информационная культура

4.3. Научная картина мира и информатика


Введение


Информационные процессы (сбор, обработка и передача информации) всегда играли важную роль в науке, технике и жизни общества. В ходе эволюции человечества просматривается устойчивая тенденция к автоматизации этих процессов, хотя их внутреннее содержание по существу осталось неизменным.

Информация не существует сама по себе, она проявляется в информационных процессах. Человек живет в мире информации и на протяжении всей жизни участвует во всевозможных информационных процессах.

Основными информационными процессами являются: поиск, сбор, хранение, передача, обработка, использование и защита информации.

Действия, выполняемые с информацией, называются информационными процессами.

Процессы, связанные с получением, хранением, обработкой и передачей информации, называются информационными.

Информационный процесс - совокупность последовательных действий (операций), производимых над информацией (в виде данных, сведений, фактов, идей, гипотез, теорий и пр), для получения какого-либо результата (достижения цели) [3].

Информация проявляется именно в информационных процессах, которые всегда протекают в каких-либо системах (социальных, социотехнических, биологических и пр).

Информационные процессы, осуществляемые по определенным информационным технологиям, составляет основу информационной деятельности человека. Компьютер является универсальным устройством для автоматизированного выполнения информационных процессов.

1. Информационные процессы


1.1. Поиск информации


Поиск информации - извлечение хранимой информации.

Существуют ручной и автоматизированный методы поиска информации в хранилищах. Основными методами поиска информации являются:

непосредственное наблюдение;

общение со специалистами по интересующему вопросу;

чтение соответствующей литературы;

просмотр теле-, видеопрограмм,

прослушивание радиопередач и аудиокассет;

работа в библиотеках, архивах, информационных системам и другие методы.

Для того чтобы собрать наиболее полную информацию и повысить вероятность принятия правильного решения, необходимо использовать разнообразные методы поиска информации.

Поиск информации может быть эффективным и неэффективным. Успех будет в большой степени будет зависеть от того, как вы организовали поиск информации.

В процессе поиска информации может встретиться самая разная информация, как полезная, так и бесполезная, как достоверная, так и ложная, актуальная и устаревшая, объективная и субъективная. Для ускорения процесса получения полной информации по интересующему вопросу стали составлять каталоги (алфавитный, предметный и др.).

Следующим шагом в ускорении поиска информации стало создание специальных научных журналов. Подлинный переворот в службе хранения, отбора информации произвели автоматизированные информационно–поисковые системы (ИПС). Использование ИПС позволяет сэкономить время и усилия, затрачиваемые на просмотр ящиков, заполненных карточками. Кроме того, библиотеки получают возможность существенно сократить пространство, отводимое для хранения каталогов.

2. Сбор информации - это деятельность субъекта, в ходе которой он получает сведения об интересующем его объекте. Сбор информации может производиться или человеком, или с помощью технических средств и систем - аппаратно.

Например, пользователь может получить информацию о движении поездов или самолетов сам, изучив расписание, или же от другого человека непосредственно, либо через какие-то документы, составленные этим человеком, или с помощью технических средств (автоматической справки, телефона и т.д.). Задача сбора информации не может быть решена в отрыве с других задач, - задачи обмена информацией (передачи).

3. Хранение информации.

Хранение информации - процесс поддержания исходной информации в виде, обеспечивающем выдачу данных по запросам конечных пользователей в установленные сроки [8].

Хранение информации – процесс такой же древний, как жизнь человеческой цивилизации. Уже в древности человек столкнулся с необходимостью хранения информации: зарубки на деревьях, чтобы не заблудиться во время охоты; счет предметов с помощью камешков, узелков; изображение животных и эпизодов охоты на стенах пещер.

С рождением письменности и возникло специальное средство фиксирования и распространения мысли в пространстве и во времени. Родилась документированная информация – рукописи и рукописные книги, появились своеобразные информационно-накопительные центры – древние библиотеки и архивы. Постепенно письменный документ стал и орудием управления (указы, законы, приказы).

Вторым информационным скачком явилось книгопечатание. С его возникновением наибольший объем информации стал храниться в различных печатных изданиях, и для ее получения человек обращается в места их хранения.

Хранение информации происходит или в памяти человека, или на внешних носителях. В памяти человека информация может храниться как в образной форме (я помню, как пахнет роза), так и в знаковой (словесной, формульной). Информацию, хранимую в памяти, называют оперативной. Информацию, хранимую на внешних носителях (листе бумаги, диске, пластинке и т.д.), называют внешней. Она может быть переведена в разряд оперативной, если будет "прочитана" человеком. Внешние носители выполняют роль “дополнительной” памяти человека. На них могут храниться звук, тексты, изображения.

Устройства, на которых хранится информация, называются информационными носителями.

Информацию нужно хранить так, чтобы ее легко было найти. Для этого люди придумали разные способы организации хранения информации.

Различная информация требует разного времени хранения: проездной билет надо хранить только в течение поездки; программу телевидения – текущую неделю; школьный дневник – учебный год; аттестат зрелости – до конца жизни; исторические документы – несколько столетий.

ЭВМ предназначена для компактного хранения информации с возможностью быстрого доступа к ней.


Основные хранилища информации

Для человека

Для общества

Компьютерные хранилища

Память

Библиотеки, видиотеки, фонотеки, архивы, патентные бюро, музеи, картинные галереи

Базы и банки данных, информационно-поисковые системы, электронные энциклопедии, медиатеки


4. Передача информации.

Передача информации может осуществляться в письменной, устной формах или с помощью жестов. Человек получает информацию с помощью органов чувств (зрение - 90%; слух - 9%; обоняние, осязание, вкус - 1%). Человеческое мышление можно рассматривать, как процесс обработки информации. Полученная информация хранится на носителях информации различного вида: книги, фотографии видеокассеты, лазерные диски т.д.

Установлена общность информационных процессов в живой природе, обществе и технике. Рассмотрим примеры:

Растительный мир. Весной вырастают листья, которые осенью опадают.д.лина светового дня, температура воздуха и почвы, – это сигналы, которые воспринимаются клетками живых организмов, как информация, которая обрабатывается и влияет на обменные физико-химические процессы, протекающие в живой клетке, - управляют ими. Передача идет в пределах собственных живых клеток (от корня к листьям и обратно).

Животный мир. Животные имеют нервную систему, управляющую всеми стадиями информационного процесса: восприятия, передачи, обработки и использования информации. В отличие от растительного мира, животные могу передавать информацию друг другу.

В неживой природе информационные процессы, существуют лишь в технике. Такая техника повторяет (моделирует) некоторые действия человека и способна в этих случаях заменить его. Например, роботы–манипуляторы и т.д.

Деятельность человека всегда была связана с передачей информации. Древний способ передачи - письмо, отправленное с гонцом. Разговаривая, мы передаем друг другу информацию. Человечество придумало много устройств для быстрой передачи информации: телеграф, радио, телефон, телевизор. К числу устройств, передающих информацию с большой скоростью, относятся электронные вычислительные машины, хотя правильнее было бы сказать телекоммуникационные сети.

В передаче участвуют две стороны:

источник - тот, кто передает информацию,

приемник - тот, кто ее получает.

Например, учитель передает информацию ученикам. Учитель - источник. Ученик – приемник. В африканских джунглях, в старину, важные новости передавали от одного племени к другому барабанным боем. Моряки иногда пользуются флажковой азбукой. Разговаривая, мы передаем друг другу информацию. Информация ЭВМ выводится на экран монитора - это тоже передача информации.

Очень часто при передаче информации возникают помехи. И тогда информация от источника к приемнику поступает в искаженном виде.

Ошибки, возникающие при передаче информации, бывают 3-х видов:

часть правильной информации заменяется на неправильную;

к передаваемой информации добавляются лишние, посторонние сообщения;

часть информации при передаче пропадает.

Информация передаётся в виде сообщений от некоторого источника информации к её приёмнику посредством канала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приёмнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением.

Канал связи - совокупность технических устройств, обеспечивающих передачу сигнала от источника к получателю.

Кодирующее устройство - устройство, предназначенное для кодирования (преобразования исходного сообщения источника информации к виду, удобному для передачи информации) информации.

Декодирующее устройство - устройство для преобразования полученного сообщения в исходное.

Примеры:

сообщение, содержащее информацию о прогнозе погоды, передаётся приёмнику (телезрителю) от источника - специалиста-метеоролога посредством канала связи - телевизионной передающей аппаратуры и телевизора.

телефонный разговор:

Источник сообщения – человек говорящий;

Кодирующее устройство – микрофон – преобразует звуки в электрические импульсы;

Канал связи – телефонная сеть (провод);

Декодирующее устройство – та часть трубки, которую мы подносим к уху, здесь электрический сигнал преобразуется в звук;

Приемник информации – человек слушающий.

Общая схема передачи информации может быть такой как представлено на рис.2:


Рис.2. Схема передачи информации


В процессе передачи информация может теряться, искажаться: искажение звука в телефоне, атмосферные помехи по радио, искажение или затемнение изображения в телевидении, ошибки при передаче в телеграфе. Эти помехи (шумы) искажают информацию. К счастью, существует наука, разрабатывающая способы защиты информации, - криптология.

5. Обработка информации.

Обработка информации – получение одних информационных объектов из других информационных объектов путем выполнения некоторых алгоритмов.

Обработка является одной из основных операций, выполняемых над информацией, и главным средством увеличения объёма и разнообразия информации. Средства обработки информации - это всевозможные устройства и системы, созданные человечеством, и в первую очередь, компьютер - универсальная машина для обработки информации. Компьютеры обрабатывают информацию путем выполнения некоторых алгоритмов. Живые организмы и растения обрабатывают информацию с помощью своих органов и систем.

После решения задачи обработки информации результат должен быть выдан конечным пользователям в требуемом виде. Эта операция реализуется в ходе решения задач выдачи информации. Выдача информации, как правило, производится с помощью внешних устройств ЭВМ в виде текстов, таблиц, графиков и пр.

Обработка информации производится человеком или в уме, или с помощью каких-либо вспомогательных средств (счеты, калькулятор, компьютер и др.). В результате обработки получается новая информация, которая каким-то образом сохраняется (записывается). Обработка информации производится по каким-то определенным правилам (алгоритмам). Сами эти правила могут также подвергаться обработке (дополняться, исправляться, уточняться).

Человек перерабатывает информацию минимум на трех уровнях: физиологическом (с помощь органов чувств), на уровне рационального мышления, на уровне подсознания.

Процесс обработки очень сложен.

Пример: Шум двигателя автобуса изменился. Для водителя это может служить информацией о каких-то неполадках в двигателе.

По радио сообщили, что теннисный турнир выиграл Агасси. Если вы не интересуетесь теннисом, то объем информации для Вас равен нулю. Если интересуетесь, объем зависит от конкретной фамилии победителя.

В примере №1 шум двигателя - косвенный источник информации. Человек обращается к базе знаний, которая хранится в памяти. Если база знаний неполная (человек малообразован), достоверную информацию получить невозможно.

Информацию, которую обрабатывают, называют исходной. После обработки исходной информации получается новая информация.

Ученик получил условие задачи (исходная информация), думает (обрабатывает) и сообщает ответ (новая информация).

Служебная собака по запаху находит человека (запах - исходная информация, куда пошел человек - новая).

Компьютер, специальный прибор, созданный человеком для обработки информации. Возможность автоматизированной обработки информации основана на том, что обработка информации не подразумевает ее осмысления.

6. Обмен информацией.

Обмен информацией - это процесс, в ходе которого источник информации ее передает, а получатель - принимает. Если в передаваемых сообщениях обнаружены ошибки, то организуется повторная передача этой информации. В результате обмена информацией между источником и получателем устанавливается своеобразный «информационный баланс», при котором в идеальном случае получатель будет располагать той я информацией, что и источник.

Обмен информацией может происходить в образной и знаковой формах. Языки бывают разговорными (русский, немецкий, и т.д.), причем в устной форме (фонетика) и в письменной (грамматика) и формальные (в математике - язык формул, в музыке - язык нот, в медицине - латынь).

Обмен информацией производится с помощью сигналов, являющихся ее материальным носителем. Источниками информации могут быть любые объекты реального мира, обладающие определенными свойствами и способностями. Если объект относится к неживой природе, то он вырабатывает сигналы, непосредственно отражающие его свойства. Если объектом-источником является человек, то вырабатываемые им сигналы могут не только непосредственно отражать его свойств, но и соответствовать тем знакам, которые человек вырабатывает с целью обмен информацией.

Принятую информацию получатель может использовать неоднократно. С этой целью он должен зафиксировать ее на материальном носителе (магнитном, фото, кино др.). Процесс формирования исходного, несистематизированного массива информации называется накоплением информации. Среди записанных сигналов могут быть такие, которые отражают ценную или часто используемую информацию. Часть информации данный момент времени особой ценности может не представлять, хотя, возможно, не требуется в дальнейшем.

7. Защита информации.

Человеку свойственно ошибаться. Ошибка может произойти при выполнении любого информационного процесса: при кодировании информации, при ее обработке и передачи. Чем больше информации обрабатывается, тем труднее избежать ошибок.

Вы правильно выбрали метод решения задачи на контрольной работе, но ошиблись в вычислениях. Получили неверный результат. Вы неверно выразили свою мысль и невольно обидели собеседника. Произнесли не то слово, которое хотели и ваши слушатели вас не поняли.

Компьютеры – это технические устройства для обработки больших объемов информации. Несмотря на постоянное повышение надежности их работы, они могут выходить из строя, ломаться, как любые другие устройства, созданные человеком.

Компьютерная система ПВО североамериканского континента однажды объявила ложную ядерную тревогу, приведя в боевую готовность вооруженные силы. А причиной послужил неисправный ЧИП стоимостью 46 центов – маленький, размером с монету, кремниевый элемент.

Конструкторы и разработчики программного и аппаратного обеспечения прилагают немало усилий, чтобы обеспечить защиту:

от сбоев оборудования;

от случайной потери или изменения информации, хранящейся в компьютере;

от преднамеренного искажения (компьютерные вирусы);

от нелегального доступа к информации: ее использования, изменения, распространения.

К многочисленным, далеко не безобидным ошибкам компьютера добавилась и компьютерная преступность, грозящая перерасти в проблему, экономические, политические и военные последствия которой могут стать катастрофическими.

8. Качество информации

Возможность и эффективность использования информации обусловливаются такими основными ее потребительскими показателями качества, как репрезентативность, содержательность, достаточность, доступность, актуальность, своевременность, точность, достоверность, устойчивость. Репрезентативность информации связано с правильностью ее отбора и формирования в целях адекватного отражения свойств объекта. Важнейшее значение имеют: правильность концепции, на базе которой сформулировано исходное понятие и обоснованность отбора существенных признаков и связей отображаемого явления.

2. Измерение информации


Мощность информационного сигнала, также как и вес носителя информации не могут служить оценкой количества информации, переносимой сигналом.

Истрепанная книжка, если в ней нет вырванных страниц, несет для вас ровно столько же информации, сколько такая же новая.


2.1. Измерение информации в быту (информация как новизна)


Вы получили какое-то сообщение. В этом сообщении содержится какое-то количество информации. Как оценить, сколько информации вы получили? Другими словами, как измерить информацию? Можно ли сказать, что чем больше статья, тем больше информации она содержит?

Разные люди, получившие одно и тоже сообщение, по-разному оценивают количество информации, содержащееся в нем. Это происходит оттого, что знания людей об этих событиях, явлениях до получения сообщения были различными. Поэтому те, кто знал об этом мало, сочтут, что получили много информации, те же, кто знал больше, чем написано в статье, скажут, что информации не получили вовсе. Количество информации в сообщении зависит от того, насколько важно сообщение для получателя. При таком подходе непонятно, по каким критериям можно ввести единицу измерения информации. С точки зрения информации как новизны можно оценить количество информации, содержащейся в научном открытии, музыкальном стиле, новой теории общественного развития.


2.2. Измерение информации в технике


В технике информацией считается любая хранящаяся, обрабатываемая или передаваемая последовательность знаков, символов. В технике под количеством информации понимают количество кодируемых, передаваемых или хранимых символов.

Определить понятие «количество информации» сложно. В решении этой проблемы существуют два основных подхода. Исторически они возникли почти одновременно. В конце 40-х годов XX века Клод Шеннон развил вероятностный подход к измерению количества информации, работы по созданию ЭВМ привели к «объемному» подходу. В технике используют простой способ определения количества информации, названный объемным, основанный на подсчете числа символов в сообщении, не связан с его длиной и не учитывает содержания.

Пример: собака – 6 символов, dog – 3 символа.

Человеку привычно работать с символами, а компьютеру - с кодами. Каждый символ кодируется двоичным кодом, длиной в 8 знаков (восьмибитный код).

Прежде чем измерить информацию в битах, вы определяете количество символов в этом сообщении. Каждый символ не случайно кодируется 8-битным кодом. Для удобства введена более "крупная" единица информации в технике – байт, с помощью которой легче подсчитать количество информации в техническом сообщении - оно совпадает с количеством символов в нем.

В вычислительной технике: бит (binary digit) - двоичный знак двоичного алфавита {0, 1}, минимальная единица измерения информации.

Байт (byte) - единица количества информации в системе СИ. Байт - восьмиразрядный двоичный код, с помощью которого можно представить один символ.

Единицы измерения информации в вычислительной технике:


Бит

Элементарная единица информации

Байт (б)

8 бит

Килобайт (Кбайт)

210 байт = 1024 байт

Мегабайт (Мбайт)

210 Кбайт = 220 байт

Гигабайт (Гбайт)

210 Мбайт = 230 байт

Терабайт (Тбайт)

1024 Гбайт = 240 байт

Петабайт (Пбайт)

1024 Тбайт = 250 байт

Эксабайт (Эбайт)

1024 Пбайт = 260 байт


Информационный объем сообщения (информационная емкость сообщения) - количество информации в сообщении, измеренное в битах, байтах, производных единицах (Кб, Мб и т.д.) [2].

Длина сообщения зависит от числа различных символов, употребляемых для записи сообщения. Например, слово "мир" в русском алфавите записывается тремя знаками, в английском - пятью (peace), а в КОИ-8 - двадцатью четырьмя битами (111011011110100111110010).


2.3. Измерение информации в теории информации (информация как снятая неопределенность)


В теории информации количеством информации называют числовую характеристику сигнала, не зависящую от его формы и содержания и характеризующую неопределенность, которая исчезает после получения сообщения в виде данного сигнала - в этом случае количество информации зависит от вероятности получения сообщения о том или ином событии.

Для абсолютно достоверного события (событие обязательно произойдет, поэтому его вероятность равна 1) количество вероятности в сообщении о нем равно 0. Чем вероятнее событие, тем больше информации о нем несет сообщение.

Лишь при равновероятных ответах ответ "да" или "нет" несет 1 бит информации. Оценка количества информации основывается на законах теории информации. Сообщение имеет ценность, несет информацию, когда мы узнаем и понимаем смысл данного сообщения.

Какое количество информации содержится, к примеру, в тексте романа "Война и мир", в фресках Рафаэля или в генетическом коде человека? Ответа на эти вопросы наука не даёт и, по всей вероятности, даст не скоро.

А возможно ли объективно измерить количество информации? Важнейшим результатом теории информации является вывод: в определенных, весьма широких условиях можно пренебречь качественными особенностями информации, выразить её количество числом, а также сравнить количество информации, содержащейся в различных группах данных.

Теория информации как самостоятельная научная дисциплина была основана Клодом Шенноном в конце 40-х годов 20 века. Предложенная им теория основывалась на фундаментальном понятии количественной меры неопределенности – энтропии и связанного с нею понятия количества информации.

Сигнал – это материальный носитель информации (предмет, явление, процесс) в пространстве и во времени. Любой сигнал неразрывно связан с определенной системой, которая является системой связи или системой передачи информации и состоит из следующих модулей: источник, передатчик, канал связи, приемник и адресат. Источник информации задает некоторое множество сообщений. Генерация определенного сообщения заключается в выборе его из множества всех возможных. Сообщения бывают дискретными и непрерывными. Светофор или передача сообщения с помощью азбуки Морзе – примеры дискретного сигнала.

Особым видом сигналов являются знаки, которые в отличие от сигналов естественного происхождения создаются самоорганизующимися системами и предназначаются для передачи и хранения информации. Есть знаки, входящие в четко организованную систему, и внесистемные знаки. Например: знаки дорожного движения, система цветов светофора, музыка, речь и языки, как естественные, так и искусственные. Внесистемные знаки – это или остатки некогда существовавших знаковых систем, или знаки, созданные временно, обычно в небольших коллективах людей. Например, языки жестов и поз.

В теории информации и кодировании принят энтропийный подход к измерению информации, который основан на том, что факт получения информации всегда связан с уменьшением разнообразия или неопределенности (энтропии) системы. Неопределенность может быть интерпретирована в смысле того, насколько мало известно наблюдателю о данной системе, энтропия системы снизилась, так как для наблюдателя система стала более упорядоченной.

При энтропийном подходе под информацией понимается количественная величина исчезнувшей в ходе какого-либо процесса (испытания, измерения и т.д.) неопределенности. При этом в качестве меры неопределенности вводится энтропия [1].

Энтропия – мера внутренней неупорядоченности информационной системы.

Энтропия увеличивается при хаотическом распределении информационных ресурсов и уменьшается при их упорядочении.

На основе понятий энтропии и количества информации в теории информации введены важные характеристики сигналов и информационных систем:

скорость создания информации;

скорость передачи информации;

избыточность;

пропускная способность каналов связи.

Одним из самых замечательных результатов теории информации является доказательство, что при любых помехах и шумах можно обеспечить передачу информации без потерь.

Первая теорема Шеннона гласит, что при скорости создания информации меньшей пропускной способности канала можно передавать информацию со сколь угодно малой вероятностью ошибок, несмотря на шумы.

Шеннон сформулировал энтропию как меру хаоса в противовес количеству информации как меры упорядоченности структур.

Рассмотрим некоторую сложную систему и проследим ее эволюцию. Пусть эта система представляет собой находящийся в сосуде газ, состоящий из огромного числа беспорядочно движущихся молекул. Мы не знаем точного положения и скорости в каждый момент времени каждой частицы газа, но нам известны макропараметры: давление, объем, температура и состав газа. Фактически мы должны рассчитать число способов, которыми можно осуществить внутренние перестройки в системе, чтобы наблюдатель не заметил изменений макросостояния системы. При этом предполагается неотличимость атомов друг от друга.

Если в системе, состоящей из одного атома, произошло его энергетическое возбуждение, нам это может стать известно по значению температуры. При этом возможно только одно распределение возбуждения в системе равному единице. Энтропия связана с распределением следующим образом: . В нашем случае , а значит, система обладает нулевой энтропией.

В системе из ста атомов, распределение возбуждения может быть осуществлено ста способами, т.е. , . Энтропия системы выросла и стала хаотичной, поскольку мы не знаем, где находится в каждый момент возбужденный атом.

Принято считать, что любая система стремится к состоянию равновесия, т.е. растет энтропия системы. Однако второе начало термодинамики (закон сохранения энтропии и информации) требует компенсировать рост энтропии. Информация и является средством компенсации.

В настоящее время получили распространение подходы к определению понятия "количество информации", основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле её новизны или, иначе, уменьшения неопределённости наших знаний об объекте.

Р. Хартли предложил в качестве меры неопределенности логарифм от числа возможностей, т.е. процесс получения информации рассматривает как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определяет как двоичный логарифм N: - формула Хартли.

Обычно количество информации представляется в виде: , где m - число возможных выборов. Тогда стандартной единицей количества информации будет выбор из двух возможностей. Такая единица получила наименование бит и представляется одним символом двоичного алфавита: 0 или 1.

Пример: нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: .Т. е. сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единиц информации.

Другие примеры равновероятных сообщений: при бросании монеты: "выпала решка", "выпал орел"; на странице книги: "количество букв чётное", "количество букв нечётное".

В некоторых случаях, когда однозначно нельзя ответить на вопросы распределения вероятности, для определения количества информации уже нельзя использовать формулу Хартли.

Пример: являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь.

Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Формула Шеннона:

,

где рi - вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.

Если вероятности равны, то каждая из них равна 1/N, и формула Шеннона превращается в формулу Хартли.

3. Кодирование информации


Кодирование информации - это процесс формирования определенного представления информации [3].

В более узком смысле под термином кодирование часто понимают переход от одной формы представления информации к другой, более удобной для хранения, передачи или обработки.

Компьютер может обрабатывать только информацию, представленную в числовой форме. Вся другая информация (звуки, изображения, показания приборов и т.д.) для обработки на компьютере должна быть преобразована в числовую форму. Чтобы перевести в числовую форму музыкальный звук, можно через небольшие промежутки времени измерять интенсивность звука на определенных частотах, представляя результаты каждого измерения в числовой форме. Аналогичным образом можно обрабатывать текстовую информацию. При вводе в компьютер каждая буква кодируется определенным числом, при выводе на внешние устройства для восприятия человеком по этим числам строятся изображения букв. Соответствие между набором букв и числами называется кодировкой символов.

Одну и ту же информацию можно выразить разными способами. Например, каким образом вы можете сообщить об опасности?

Если на вас напали, вы просто можете крикнуть: «Караул!!! »

Если прибор находится под высоким напряжением, то требуется оставить предупреждающий знак;

На оживленном перекрестке регулировщик помогает избежать аварии с помощью жестов.

В театре пантомимы вся информация передается только с помощью мимики и жестов.

Если ваш корабль тонет, то вы передаете сигнал «SOS».

На флоте используют семафорную и флажковую сигнализацию.

В каждом из этих примеров мы должны знать правила, по которым можно отобразить информацию об опасности тем или иным способом.

Правила, по которым можно отобразить информацию тем или иным способом, называются кодом.

Обычно каждый образ при кодировании представлен отдельным знаком.

Знак – это элемент конечного множества, отличных друг от друга элементов. Знак вместе его смыслом называется символом. Набор знаков, в котором определен их порядок, называется алфавитом. Мощность алфавита - количество используемых в нем символов.

Существует множество алфавитов: алфавит кириллических букв (А, Б, В, Г, Д, …); алфавит латинских букв (A, B, C, D, …); алфавит десятичных цифр (1, 2, 3, 4,…,9, 0); алфавит знаков зодиака и др.

Имеются, однако, наборы знаков, для которых нет какого-то общепринятого порядка: набор знаков азбуки Брайля (для слепых); набор китайских иероглифов; набор знаков планет; набор знаков генетического кода.

Особенно важное значение имеют наборы, состоящие всего из двух знаков: пара знаков (+, -); пара знаков «точка», « тире»; пара цифр (0, 1); пара ответов (да, нет).

Наборы знаков, состоящие из 2 символов, называют двоичными - двоичный алфавит (0, 1), двоичный знак получил название БИТ. С появлением электрического телеграфа возникли важнейшие технические коды: азбука МОРЗЕ; набор знаков второго международного телеграфного кода (телекс).

Код используется для представления информации в виде, удобном для хранения и передачи.

Например, для того чтобы закодировать ряд чисел от 0

Если Вам нужна помощь с академической работой (курсовая, контрольная, диплом, реферат и т.д.), обратитесь к нашим специалистам. Более 90000 специалистов готовы Вам помочь.
Бесплатные корректировки и доработки. Бесплатная оценка стоимости работы.

Поможем написать работу на аналогичную тему

Получить выполненную работу или консультацию специалиста по вашему учебному проекту
Нужна помощь в написании работы?
Мы - биржа профессиональных авторов (преподавателей и доцентов вузов). Пишем статьи РИНЦ, ВАК, Scopus. Помогаем в публикации. Правки вносим бесплатно.

Похожие рефераты: