Информация: определение, классификация, измерение. Реферат. Информационное обеспечение, программирование. 2011-10-04

Информация: определение, классификация, измерение. Реферат. Информационное обеспечение, программирование. 2011-10-04 Реферат

Введение

Базовым понятием информатики является информация. Любая
деятельность человека представляет собой процесс сбора и переработки
информации, принятия на ее основе решений и их выполнения. С появлением
современных средств вычислительной техники информация стала выступать в
качестве одного из важнейших ресурсов научно-технического прогресса.

Актуальность нашей работы заключается в рассмотрении значения
информации в человеческом обществе, ее отличительных черт и влияния на
эволюционные процессы.

Цель работы состоит в изучении основных особенностей
информации.

Достижение цели предполагает решение ряда задач:

) дать определение информации и ее свойствам;

) рассмотреть классификацию информации;

) изучить единицы измерения информации.

Общение, коммуникации, обмен информацией присущи всем живым
существам, но в особой степени — человеку. Будучи аккумулированной и обработанной
с определенных позиций, информация дает новые сведения, приводит к новому
знанию. Получение информации из окружающего мира, ее анализ и генерирование
составляют одну из основных функций человека, отличающую его от остального
живого мира.

Определение информации и ее свойства

Базовым понятием информатики является информация. Любая
деятельность человека представляет собой процесс сбора и переработки
информации, принятия на ее основе решений и их выполнения. С появлением
современных средств вычислительной техники информация стала выступать в
качестве одного из важнейших ресурсов научно-технического прогресса.

По
современным представлениям информация является одной из исходных категорий
мироздания наряду с материей и энергией. Эти категории тесно взаимосвязаны
между собой. Эти связи можно усмотреть и в природе и процессах, порожденных
человеком. Прогресс человечества неизбежно влечет увеличение общего объема
информации, которым оно располагает, причем объем этот растет гораздо быстрее,
чем население земного шара и его материальные потребности.

Информация содержится в человеческой речи, текстах книг,
журналов, газет, сообщениях радио и телевидения, показаниях приборов и т.д.
Человек воспринимает информацию с помощью органов чувств. Хранит и перерабатывает
ее с помощью мозга и центральной нервной системы.

Слово «информация» происходит от латинского слова informatio,
что в переводе обозначает сведение, разъяснение, ознакомление. Понятие
информации рассматривалось ещё античными философами. До начала промышленной
революции, «определение сути информации оставалось прерогативой преимущественно
философов» [5; с. 32]. Далее рассматривать вопросы теории информации стала
новая на то время наука кибернетика.

Первоначально смысл слова «информация» трактовался как нечто
присущее только человеческому сознанию и общению ― знания, сведения,
известия. Затем смысл этого слова начал расширяться и обобщаться. Так, с
позиций материалистической теории познания одним из всеобщих свойств материи
(наряду с движением, развитием, пространством, временем и др.) было признано
отражение, заключающееся в способности адекватно отображать одним реальным
объектом другие реальные объекты, а сам факт отражения одного объекта в другом
и означает присутствие в нем информации об отражаемом объекте.

Таким образом,
как только состояния одного объекта находятся в соответствии с состояниями
другого объекта (например, соответствие между положением стрелки вольтметра и
напряжением на его клеммах или соответствие между нашим ощущением и
реальностью), это значит, что один объект отражает другой, т. е. содержит
информацию о другом [3; с. 42].

Особенностью понятия «информация» является его
универсальность ― оно используется во всех
без исключения сферах человеческой деятельности: в философии, естественных и
гуманитарных науках, в биологии, медицине, в психологии человека и животных, в
социологии, искусстве, в технике и экономике и, конечно, в повседневной жизни.

Рассмотрим ряд понятий, связанных с информацией. Информация ― категория нематериальная, следовательно, она должна быть связана
с какой материальной основой, без этого она просто не сможет существовать. При
этом хранение информации связана с фиксацией состояния носителя (например, уже
напечатанный текст на бумаге), а распространение информации ― с процессом, который протекает в носителе. Сообщение, таким
образом, служит переносчиком информации, а информация является содержанием
сообщения.

Понятие «информация» обычно предполагает наличие двух
объектов ― источника и приемника информации.
Информация передается от источника к приемнику в материально-энергетической
форме в форме сигналов, распространяющихся в определенной среде. Источник
информации — это субъект или объект, порождающий информацию и представляющий ее
в виде сообщения.

Получатель информации ― это субъект или объект,
принимающий сообщение и способный правильно его интерпретировать. Совокупность
технических средств, используемых для передачи сообщений от источника к
получателю, называется системой связи. Канал связи ― совокупность технических устройств, обеспечивающих передачу
сигнала от передатчика к приемнику.

Кодирующее устройство предназначено для
кодирования информации (преобразования исходного сообщения от источника к виду,
удобному для передачи информации). Декодирующее устройство предназначено для
преобразования полученного сообщения в исходное [3; с. 48].

Рис. 1. Процесс передачи информации

Сигнал — изменяющийся во времени физический процесс,
изменение параметров которого и несёт информацию к получателю. Данные —
результат фиксации, отображения информации на каком-либо материальном носителе,
то есть зарегистрированное на носителе представление сведений независимо от
того, дошли ли эти сведения до какого-нибудь приёмника и интересуют ли они его.

Данные — это и текст книги или письма, и картина художника, и ДНК. Данные,
являющиеся результатом фиксации некоторой информации, сами могут выступать как
источник информации. Информация, извлекаемая из данных, может подвергаться
обработке, и результаты обработки фиксируются в виде новых данных.

Совокупность данных, представляющих сообщение на материальном
носителе, образует документ. Документ — материальный объект, содержащий
информацию в зафиксированном виде и специально предназначенный для её передачи
во времени и пространстве. Документ — это материальный объект, содержащий
данные, отображающие некоторую информацию.

Характерными чертами информации являются следующие:

) это наиболее важный ресурс современного производства: он
снижает потребность в земле, труде, капитале, уменьшает расход сырья и энергии.
Так, например, обладая умением архивировать свои файлы (т.е. имея такую
информацию), можно не тратиться на покупку новых дискет;

) информация вызывает к жизни новые производства. Например,
изобретение лазерного луча явилось причиной возникновения и развития
производства лазерных (оптических) дисков;

) информация является товаром, причем продавец информации ее
не теряет после продажи. Так, если студент сообщит своему товарищу сведения о
расписании занятий в течение семестра, он эти данные не потеряет для себя;

) информация придает дополнительную ценность другим ресурсам,
в частности, трудовым. Действительно, работник с высшим образованием ценится
больше, чем со средним [2; с. 37].

Качество информации является одним из важнейших параметров
для потребителя информации. Оно определяется следующими характеристиками:

― репрезентативность ― правильность отбора информации в целях адекватного отражения
источника информации;

― содержательность ― семантическая емкость информации. Рассчитывается как отношение
количества семантической информации к ее количеству в геометрической мере;

― достаточность (полнота) ― минимальный, но достаточный состав данных для достижения целей,
которые преследует потребитель информации;

― доступность ― простота (или возможность) выполнения процедур получения и
преобразования информации;

― актуальность ― зависит от динамики изменения характеристик информации и
определяется сохранением ценности информации для пользователя в момент ее
использования;

― своевременность ― поступление не позже заранее назначенного срока;

― точность ― степень близости информации к реальному состоянию источника
информации;

― достоверность ― свойство информации отражать источник информации с необходимой
точностью;

Информацию нельзя считать лишь техническим термином, это
фундаментальная философская категория, которой присущи такие свойства как
запоминаемость, передаваемость, преобразуемость, воспроизводимость,
стираемость. Можно дать следующее определение: информация ― специфический атрибут реального мира, представляющий собой его
объективное отражение в виде совокупности сигналов и проявляющийся при
взаимодействии с «приемником» информации, позволяющим выделять, регистрировать
эти сигналы из окружающего мира и по тому или иному критерию их
идентифицировать.

Без информации не может существовать жизнь в любой форме и не
могут функционировать созданные человеком любые информационные системы.
Общение, коммуникации, обмен информацией присущи всем живым существам, но в
особой степени — человеку. Будучи аккумулированной и обработанной с
определенных позиций, информация дает новые сведения, приводит к новому знанию.

Классификация информации

. Информация подразделяется по форме представления на 2 вида:

― дискретная форма
представления информации ― это последовательность
символов, характеризующая прерывистую, изменяющуюся величину (количество
дорожно-транспортных происшествий, количество тяжких преступлений и т.п.);

― аналоговая или
непрерывная форма представления информации ― это величина,
характеризующая процесс, не имеющий перерывов или промежутков (температура тела
человека, скорость автомобиля на определенном участке пути и т.п.).

Рефераты:  Особенности организации психологической службы в учреждениях интернатного типа. — Студопедия.Нет

. По области возникновения выделяют информацию:

― элементарную
(механическую), которая отражает процессы, явления неодушевленной природы;

― биологическую, которая
отражает процессы животного и растительного мира;

― социальную, которая
отражает процессы человеческого общества.

. По способу передачи и восприятия различают следующие виды
информации:

― визуальную, передаваемую
видимыми образами и символами;

― аудиальную, передаваемую
звуками;

― тактильную, передаваемую
ощущениями;

― органолептическую,
передаваемую запахами и вкусами;

― машинную, выдаваемую и
воспринимаемую средствами вычислительной техники [4; с. 52].

. Информацию, создаваемую и используемую человеком, по
общественному назначению можно разбить на три вида:

― личную, предназначенную
для конкретного человека;

― массовую,
предназначенную для любого желающего ее пользоваться (общественно-политическая,
научно-популярная и т.д.);

― специальную,
предназначенную для использования узким кругом лиц, занимающихся решением
сложных специальных задач в области науки, техники, экономики.

. По способам кодирования выделяют следующие типы информации:

― текстовую, основанную на
использовании комбинаций символов. Здесь так же, как и в предыдущей форме,
используются символы: буквы, цифры, математические знаки. Однако информация
заложена не только в этих символах, но и в их сочетании, порядке следования.

Так, слова КОТ и ТОК имеют одинаковые буквы, но содержат различную информацию.
Благодаря взаимосвязи символов и отображению речи человека текстовая информация
чрезвычайно удобна и широко используется в деятельности человека: книги,
брошюры, журналы, различного рода документы, аудиозаписи кодируются в текстовой
форме.

― графическую, основанную
на использовании произвольного сочетания в пространстве графических примитивов.
К этой форме относятся фотографии, схемы, чертежи, рисунки, играющие большое
значение в деятельности человек [4; с. 53].

Свойства информации можно рассматривать в трех аспектах:
техническом ― это точность, надежность, скорость
передачи сигналов и т.д.; семантическом ― это передача смысла
текста с помощью кодов и прагматическом ― это насколько эффективно
информация влияет на поведение объекта.

1. Содержательный подход к измерению информации

Клод Шеннон, разрабатывая теорию связи, предложил характеризовать информативность сообщения содержащейся в нём полезной информацией, т. е. той частью сообщения, которая снимает полностью или уменьшает существующую до её получения неопределённость какой-либо ситуации.

Клод Элвуд Шеннон (1916-2001) — американский инженер и математик. Является основателем теории информации, нашедшей применение в современных высокотехнологических системах связи. В 1948 году предложил использовать слово «бит» для обозначения наименьшей единицы информации.

Информация — это снятая неопределённость. Величина неопределённости некоторого события — это количество возможных результатов (исходов) данного события.

Сообщение, уменьшающее неопределённость знания в 2 раза, несёт 1 бит информации.

Такой подход к измерению информации называют содержательным.

Пример 1. Допустим, вы подбрасываете монету, загадывая, что выпадет: «орёл» или «решка». Перед подбрасыванием монеты неопределённость знания о результате равна двум. Действительно, есть всего два возможных результата этого события (бросания монеты). Эти результаты мы считаем равновероятными, т. к. ни один из них не имеет преимущества перед другим.

После того как конкретный исход стал известен (например, подброшенная монета упала «орлом» вверх), неопределённость уменьшилась в 2 раза. Таким образом, сообщение о том, что подброшенная монета упала «орлом» вверх, несёт в себе 1 бит информации.

Пример 2. Предположим, в книжном шкафу восемь полок. Книга может быть поставлена на любую из них. Сколько бит информации несёт сообщение о том, что книга поставлена на третью полку?

Ответ на этот вопрос можно получить, если дополнить исходное сообщение ещё несколькими сообщениями так, чтобы каждое из них уменьшало неопределённость знания в 2 раза.

Итак, количество возможных результатов (исходов) события, состоящего в том, что книга поставлена в шкаф, равно восьми: 1, 2, 3, 4, 5, 6, 7 и 8.

Сообщение «Книга поставлена на полку не выше четвёртой» уменьшает неопределённость знания о результате в два раза. Действительно, после такого сообщения остаётся всего четыре варианта: 1, 2, 3 и 4. Получен один бит информации.

Сообщение «Книга поставлена на полку выше второй» уменьшает неопределённость знания о результате в два раза: после этого сообщения остаётся всего два варианта: 3 и 4. Получен ещё один (второй) бит информации.

Сообщение «Книга поставлена на третью полку» также уменьшает неопределённость знания о результате в два раза. Получен третий бит информации.

Итак, мы построили цепочку сообщений, каждое из которых уменьшало неопределённость знания о результате в два раза, т. е. несло 1 бит информации. Всего было набрано 3 бита информации. Именно столько информации и содержится в сообщении «Книга поставлена на третью полку».

Подумайте, сколько информации содержится в сообщении о том, что книга поставлена на пятую полку. Обоснуйте свой ответ, построив соответствующую цепочку сообщений.

Метод поиска, на каждом шаге которого отбрасывается половина вариантов, называется методом половинного деления. Этот метод широко используется в компьютерных науках.

Пример 3. О результатах футбольного матча между клубами «Спартак» и «Динамо» известно, что больше трёх мячей никто не забил. Всего возможных вариантов счёта матча — 16:

Здесь первая цифра в каждой паре соответствует количеству мячей, забитых командой «Спартак», вторая — командой «Динамо».

Будем считать все варианты равновероятными и отгадывать счёт, задавая вопросы, на которые можно ответить только «да» или «нет». Вопросы будем формулировать так, чтобы количество возможных вариантов счёта каждый раз уменьшалось вдвое. Это позволит нам:

1) обойтись минимальным количеством вопросов;

2) подсчитать, сколько бит информации содержит сообщение о счёте матча.

Вопрос 1. «Спартак» забил больше одного мяча? Предположим, получен ответ «Нет». Такой ответ позволяет не рассматривать варианты, расположенные в нижней части таблицы, т. е. сокращает количество возможных исходов в 2 раза:

Вопрос 2. «Спартак» забил один мяч? Предположим, получен ответ «Да». Такой ответ позволяет не рассматривать варианты, расположенные в верхней строке таблицы, т. е. сокращает количество возможных исходов ещё в 2 раза:

Вопрос 3. «Спартак» пропустил больше одного мяча? Предположим, получен ответ «Нет». Можно отбросить ещё два варианта:

Вопрос 4. «Спартак» пропустил один мяч? Предположим, получен ответ «Да». Получаем единственный вариант:

Итак, нам удалось выяснить счёт матча, задав четыре вопроса, ответ на каждый из которых уменьшал неопределённость результата в два раза, т. е. нёс 1 бит информации. Сообщение о счёте матча несёт четыре бита информации.

Выясните, какому счёту матча будут соответствовать следующие цепочки ответов на поставленные выше вопросы:

1) Да — Да — Да — Да;

2) Нет — Нет — Нет — Нет;

3) Да — Нет — Да — Нет.

Попробуйте придумать такие вопросы, чтобы цепочка ответов Нет — Да — Нет — Да приводила к счёту 2 : 3.

Вычислять количество информации, содержащееся в сообщении о том, что имел место один из множества равновероятных результатов некоторого события, с помощью метода половинного деления возможно, но затруднительно. Гораздо проще воспользоваться следующей закономерностью.

Количество информации i, содержащееся в сообщении об одном из N равновероятных результатов некоторого события, определяется из формулы: 2i = N.

При N, равном целой степени двойки (2, 4, 8, 16, 32 и т. д.), это уравнение легко решается в уме. Решать такие уравнения при других N вы научитесь чуть позже, в курсе математики 11 класса.

Примюр 4. Петя и Вася заинтересовались игрой «Крестики — нолики» на поле n х n. Количество информации, полученное вторым игроком после первого хода первого игрока, составляет б бит. Требуется выяснить размеры поля, на котором играют Петя и Вася.

Единицы измерения информации

В информатике, как правило, измерению подвергается
информация, представленная дискретным сигналом. При этом различают следующие
подходы:

.структурный. Измеряет количество информации простым
подсчетом информационных элементов, составляющих сообщение. Применяется для
оценки возможностей запоминающих устройств, объемов передаваемых сообщений,
инструментов кодирования без учета статистических характеристик их
эксплуатации.

.статистический. Учитывает вероятность появления сообщений:
более информативным считается то сообщение, которое менее вероятно, т.е. менее
всего ожидалось. Применяется при оценке значимости получаемой информации.

.семантический. Учитывает целесообразность и полезность
информации. Применяется при оценке эффективности получаемой информации и ее
соответствия реальности.

В рамках структурного подхода выделяют три меры информации:

•геометрическая. Определяет максимально возможное количество
информации в заданных объемах. Мера может быть использована для определения
информационной емкости памяти компьютера;

•комбинаторная. Оценивает возможность представления
информации при помощи различных комбинаций информационных элементов в заданном
объеме. Комбинаторная мера может использоваться для оценки информационных
возможностей некоторого системы кодирования;

•аддитивная, или мера Хартли [7; с. 74].

Единицы измерения информации служат для измерения объёма
информации — величины, исчисляемой логарифмически. Это означает, что когда
несколько объектов рассматриваются как один, количество возможных состояний
перемножается, а количество информации — складывается.

Рефераты:  Николай Носов: биография в занимательных рассказах и картинках

Чаще всего измерение
информации касается объёма компьютерной памяти и объёма данных, передаваемых по
цифровым каналам связи. Объёмы информации можно представлять как логарифм
количества состояний. Наименьшее целое число, логарифм которого положителен —
2. Соответствующая ему единица — бит — является основой исчисления информации в
цифровой технике.

Единица, соответствующая числу 3 (трит
<#»526527.files/image002.gif»>бита, числу 10 (хартли) — Информация: определение, классификация, измерение. Реферат. Информационное обеспечение, программирование. 2011-10-04

Целые количества бит отвечают количеству состояний, равному
степеням двойки. Особое название имеет 4 бита — ниббл (полубайт, тетрада,
четыре двоичных разряда), которые вмещают в себя количество информации,
содержащейся в одной шестнадцатеричной цифре.

Такие величины как машинное слово и т.п., составляющие несколько
байт, в качестве единиц измерения почти никогда не используются.

Для измерения больших количеств байтов служат единицы «килобайт» =
1000 байт и «Кбайт» (кибибайт, kibibyte) = 1024 байт. Единицы «мегабайт» = 1000
килобайт = 1000000 байт и «Мбайт» (мебибайт, mebibyte) = 1024 Кбайт = 1 048 576
байт применяются для измерения объёмов носителей информации.

Единицы «гигабайт»
= 1000 мегабайт = 1000000000 байт и «Гбайт» (гибибайт, gibibyte) = 1024 Мбайт =
230 байт измеряют объём больших носителей информации, например жёстких дисков.
Разница между двоичной и десятичной единицами уже превышает 7 %. Размер
32-битного адресного пространства равен 4 Гбайт ≈ 4,295 Мбайт.

Такой же
порядок имеют размер DVD-ROM и современных носителей на флеш-памяти. Размеры
жёстких дисков уже достигают сотен и тысяч гигабайт. Для исчисления ещё больших
объёмов информации имеются единицы терабайт — тебибайт (1012 и 240
соответственно), петабайт — пебибайт (1015 и 250 соответственно) и т.д. [1; с.
115].

Байт определяется для конкретного компьютера как минимальный шаг
адресации памяти, который на старых машинах не обязательно был равен 8 битам. В
современной традиции, байт часто считают равным восьми битам. В таких
обозначениях как байт (русское) или B (английское) под байт (B) подразумевается
именно 8 бит, хотя сам термин «байт» не вполне корректен с точки зрения теории.

Долгое время разнице между множителями 1000 и 1024 старались не придавать
большого значения. Во избежание недоразумений следует чётко понимать различие
между: двоичными кратными единицами, обозначаемыми согласно ГОСТ
<#»526527.files/image004.gif»>байт.

В различных областях информатики предпочтения в употреблении
десятичных и двоичных единиц тоже различны. Причём, хотя со времени
стандартизации терминологии и обозначений прошло уже несколько лет, далеко не
везде стремятся прояснить точное значение используемых единиц.

В английском
языке для «киби»=1024 иногда используют прописную букву K, дабы подчеркнуть
отличие от обозначаемой строчной буквой приставки СИ кило. Однако, такое
обозначение не опирается на авторитетный стандарт, в отличие от российского
ГОСТа касательно «Кбайт».

Алфавитный подход к измерению информации

При алфавитном подходе кол-во информации не связывают с содержанием сообщения. Алфавитный подход — объективный подход к измерению информации. Он удобен при использовании технических средств работы с информацией, т.к. не зависит от содержания сообщения.

Все множество используемых в языке символов будем традиционно называть алфавитом. Обычно под алфавитом понимают только буквы, но поскольку в тексте могут встречаться знаки препинания, цифры, скобки, то мы их тоже включим в алфавит. В алфавит также следует включить и пробел, т.е. пропуск между словами. Полное количество символов алфавита называется мощностью алфавита.

Количество информации зависит от объема текста и мощности алфавита. Ограничений на предельную мощность алфавита нет, но есть достаточный алфавит мощностью 256 символов. Этот алфавит используется для представления текстов в компьютере. Поскольку 256=28, то 1 символ несет в тексте 8 бит информации.

Алфавитный подход основан на том, что всякое сообщение можно закодировать с помощью конечной последовательности символов некоторого алфавита. Носителями информации являются любые последовательности символов, которые хранятся, передаются и обрабатываются с помощью компьютера.

Согласно Колмогорову, информативность последовательности символов не зависит от содержания сообщения, а определяется минимально необходимым количеством символов для ее кодирования. Алфавитный подход является объективным, т.е. он не зависит от субъекта, воспринимающего сообщение.

Алфавитный (объемный) подход применяется в технике, где информацией считается любая хранящаяся, обрабатываемая или передаваемая последовательность знаков, сигналов.Этот подход основан на подсчете числа символов в сообщении, то есть связан только с длиной сообщения и не учитывает его содержания.

Чем меньше знаков в используемом алфавите, тем длиннее сообщение. Так, например, в алфавите азбуки Морзе всего три знака (точка, тире, пауза), поэтому для кодирования каждой русской или латинской буквы нужно использовать несколько знаков, и текст, закодированный по Морзе, будет намного длиннее, чем при обычной записи.

Вычисление вероятности независимых случайных событий

Вероятностью случайного события A называется отношение числа n несовместных равновероятных элементарных событий, составляющих событие A, к числу всех возможных элементарных событий N:

P(A)=n/N

  • Вероятность события «Решка» равна ½. Вероятность события «Орел» равна ½.
  • Вероятность выпадение любой цифры игральной кости равна 1/6.
  • Вычислим вероятность выпадения 5 очков при бросании 2-х игральных костей (обозначим кости как А и Б). Вычислим общее количество событий. Каждая грань кости А может выпасть с любой из граней кости Б. Следовательно, общее число событий равно 6х6=36. 5 очков составляют 4 события:
  • Выпадение граней 1 и 4;
  • Выпадение граней 2 и 3;
  • Выпадение граней 3 и 2;
  • Выпадение граней 4 и 1.

Искомая вероятность равна:

P(5)=5/36=0.1388889

Задачи

В корзине лежат 32 клубка шерсти, из них 4 красных. Сколько бит информации несет сообщение о том, что достали клубок красной шерсти?

1) 2         2) 3         3) 4         4) 32

Решение (вариант 1):

1)            красные клубки шерсти составляют 1/8 от всех, …

2)            поэтому сообщение о том, что первый вынутый клубок шерсти – красный, соответствует выбору одного из 8 вариантов

3)            выбор 1 из 8 вариантов – это информация в 3 бита (по таблице степеней двойки)

4)            правильный ответ – 2.

1. Алфавит племени Мульти состоит из 8 букв. Какое количество информации несет одна буква этого алфавита?

2. Сообщение, записанное буквами из 64-х символьного алфавита, содержит 20 символов. Какой объем информации оно несет?

3. Племя Мульти имеет 32-х символьный алфавит. Племя Пульти использует 64-х символьный алфавит. Вожди племен обменялись письмами. Письмо племени Мульти содержало 80 символов, а письмо племени Пульти — 70 символов. Сравните объемы информации, содержащейся в письмах.

4. Информационное сообщение объемом 1,5 Кбайта содержит 3072 символа. Сколько символов содержит алфавит, при помощи которого было записано это сообщение?

5. Объем сообщения, содержащего 2048 символов составил 1/512 часть Мбайта. Каков размер алфавита, с помощью которого записано сообщение?

6. Сколько символов содержит сообщение, записанное с помощью 16-ти символьного алфавита, если объем его составил 1/16 часть Мбайта?

7. Сколько килобайтов составляет сообщение, содержащее 12288 битов?

8. Сколько килобайтов составит сообщение из 384 символов 16-ти символьного алфавита?

9. Для записи текста использовался 256-символьный алфавит. Каждая страница содержит 30 строк по 70 символов в строке. Какой объем информации содержат 5 страниц текста?

10. Сообщение занимает 3 страницы по 25 строк. В каждой строке записано по 60 символов. Сколько символов в использованном алфавите, если все сообщение содержит 1125 байтов?

11. Для записи сообщения использовался 64-х символьный алфавит. Каждая страница содержит 30 строк. Все сообщение содержит 8775 байтов информации и занимает 6 страниц. Сколько символов в строке?

12. Сообщение занимает 2 страницы и содержит 1/16 Кбайта информации. На каждой странице записано 256 символов. Какова мощность использованного алфавита?

13. Каков информационный объем сообщения: «Встреча назначена на сентябрь» (в байтах, в битах)?

Задачи по теме «Алфавитный подход к определению количества информации»

1.            Алфавит состоит из 25 букв, какое количество информации несет в себе одна буква такого алфавита?

2.            Какова длина слова, если при словарном запасе в 256 слов одинаковой длины каждая буква алфавита несет в себе 2 бита информации?

3.            Сколько Кбайт составит сообщение из 200 символов 20-символьного алфавита?

4.            Какой объем информации несет в себе 20 символьное сообщение, записанное буквами из 64-символьного алфавита?

5.            Какой объем информации несет в себе сообщение, занимающее три страницы по 25 строк, в каждой строке по 80 символов 20-символьного алфавита?

6.            Сообщение, записанное при помощи 32-х символьного алфавита,  содержит 80 символов, а сообщение, записанное с помощью 64-х символьного алфавита  – 70 символов. Сравните объемы информации, содержащейся в этих сообщениях.

Рефераты:  Возбуждение уголовного дела. Реферат. Основы права. 2013-08-23

7.            Информационное сообщение объемом 1,5 Кбайта содержит 3072 символа. Сколько символов содержит алфавит, при помощи которого было записано это сообщение?

8.            Сколько килобайтов составляет сообщение, содержащее 12288 битов?

9.            Для записи текста использовался 256-символьный алфавит. Каждая страница содержит 30 строк по 70 символов в строке. Какой объем информации содержат 5 страниц текста?

10.          Для записи сообщения использовался 64-х символьный алфавит. Каждая страница содержит 30 строк. Все сообщение содержит 8775 байтов информации и занимает 6 страниц. Сколько символов в строке?

Информатика как наука

Информатика как наука изучает общие способы получения, передачи, хранения, преобразования, обработки, организации и представления информации.

  • Получение информации компьютером может быть реализовано посредством устройств ввода, например, с клавиатуры, от манипулятора «мышь», со сканера и т. п.
  • Передача информации в компьютер может быть выполнена последовательным кодом (информационные сигналы следуют по одному последовательно друг за другом) или параллельным кодом (информационные сигналы последовательно следуют группами, а все сигналы одной группы следуют одновременно).
  • Информация может храниться на магнитных дисках, в оперативной памяти компьютера, на лазерных дисках и других носителях.
  • Преобразование информации: Получение черно-белой фотографии вместо цветной. Преобразование звука из моно в стерео.
  • Целью обработки информации может быть решение уравнений, вычисления и др.
  • Организация информации: библиотека (книги упорядочены по алфавиту, имеются каталоги и другие средства поиска книг).
  • Представление информации необходимо для ее восприятия человеком или техническим устройством. Виды представления: текст, графики, рисунки, звук и т. п.

Информацио́нная энтропи́я

Одним из основных понятий в информатике является специальная характеристика, называемая энтропией. Энтропия характеризует меру неопределённости или непредсказуемости информации, неопределённость наступления некоторого случайного события.

Постараемся дать качественную оценку неопределенности информации на примерах рассмотрения двух систем, образующих множество A и множество B элементарных событий.

Пусть множество (см. Пример 12) образуют 2 элементарных события (выпал «Орел», выпала «Решка»), являющиеся результатом бросания монеты. Вероятность каждого из элементарных событий равна ½.

Пусть множество B (см. Пример 13) образуют 6 элементарных событий (выпала 1, либо 2, либо 3, либо 4, либо 5, либо 6), являющиеся результатом бросания шестигранной игральной кости. Вероятность каждого из элементарных событий равна 1/6.

Очевидно, что предсказать результат бросания монеты проще, чем результат бросания шестигранной игральной кости. Поэтому неопределенность системы B больше неопределенности системы A.

Отсюда делаем вывод, что степень неопределенности системы, образующей множество элементарных событий зависит от числа возможных состояний системы.

Сделаем оценку неопределенности информации на примере рассмотрения двух систем, образующих множество A и множество B, состоящих из 2-х элементарных событий.

Пусть множество (см. Пример 12) образуют 2 элементарных события (выпал «Орел», выпала «Решка»), являющиеся результатом бросания монеты. Вероятность каждого из элементарных событий равна ½.

Пусть множество B образуют 2 элементарных события («Исправно», «Отказ»), отражающие возможные состояния некоторого технического устройства и пусть вероятность исправной работы устройства 0,99, а вероятность отказа 0,01.

В данном случае проще предсказать, что устройство будет работать исправно, чем результат бросания монеты. Поэтому неопределенность системы A больше неопределенности системы B.

Отсюда делаем вывод, что степень неопределенности системы, образующей множество элементарных событий зависит от вероятностей состояний системы.

Объединяя оба вывода, делаем следующее заключение:

Степень неопределенности системы, образующей множество элементарных событий зависит от числа возможных состояний системы и от вероятностей состояний системы.

Курсовая работа найти подходы к измерению информации

  • Знаки и знаковые системы. Естественные и формальные языки программирования. Рассмотрение форм представления информации. Двоичное кодирование информационных данных. Процесс преобразования непрерывной информации. Алфавитный подход к измерению информации.

    шпаргалка, добавлен 20.01.2021

  • Информация, ее виды и свойства. Энтропия как численная величина, измеряющая неопределенность. Единицы количества информации: вероятностный и объемный подходы. Особенности использования формул Шеннона и Хартли. Бит как наименьшая единица информации.

    доклад, добавлен 13.10.2009

  • Понятие информации как одного из базовых для информатики, ее специфический набор признаков. Подходы и единицы измерения информации. Характеристика формулы для вычисления ее количества, учитывающая неодинаковую вероятность событий. Сущность битов и байтов.

    реферат, добавлен 03.09.2021

  • Информация, ее виды и свойства. Процедура дискретизации непрерывного сообщения. Единицы количества информации: вероятностный и объемный подходы. Понятие исполнителя алгоритма. Классификация языков программирования. Функции систем управления базами данных.

    учебное пособие, добавлен 26.09.2021

  • Математическая теория связи как раздел кибернетики, исследующий процессы хранения, преобразования и передачи информации. Описание пропускной способности информационного канала. Сущность энтропийного (вероятностного) подхода к измерению информации.

    контрольная работа, добавлен 15.05.2021

  • Кодирование информации как процесс формирования определенного представления информации. Перевод десятичных чисел в другие системы счисления. Измерение информации: содержательный и алфавитный подходы. Примеры непозиционных и позиционных систем счисления.

    практическая работа, добавлен 22.06.2021

  • Характеристика единиц измерения информации: первичных, производных от бита – байта, килобайта, мегабайта, гигабайта. Рассмотрение понятий «байт» и расчет «кило». Сущность различных систем счисления. Перевод чисел из одной системы счисления в другую.

    реферат, добавлен 06.01.2021

  • Различные подходы к определению понятия «информация». Единицы измерения и методы измерения количества информации: вероятностный и алфавитный. Оценка достоверности сопоставлением источников, распознавание информационных процессов в различных системах.

    презентация, добавлен 29.11.2021

  • Контексты понятия «информация». Различные подходы измерения информации: объёмный и содержательный теория информации по Клоду Шеннону). Характеристика свойств информации (объективность, полнота, достоверность, адекватность, доступность и актуальность).

    реферат, добавлен 13.01.2021

  • Различные подходы к определению информации. Важные факторы в определении информации как сообщения. Теория информации К. Шеннона. Структурная схема системы передачи информации. Существование информации до появления биологических и кибернетических систем.

    статья, добавлен 26.10.2021

  • Определенность и неопределенность информации

    Определенность и неопределенность информации определяют границу нашего знания. Увеличение определенности (получение нового знания – новой информации) уменьшает неопределенность информации. Максимальная (полная) определенность наступает, когда вся необходимая информация получена.

    Максимальной определенности соответствует минимальная неопределенность информации. Аналогично, минимальная определенность и, соответственно, максимальная неопределенность имеет место в случае, когда необходимая информация не получена. Следовательно, необходимым условием для снятия неопределенности является получение информации.

    Рассмотрим задачу «Угадай число»

    Пусть игрок А загадал число X в диапазоне от 1 до N. Игрок Б задает вопросы игроку Б так, чтобы на основе полученных ответов игрока Б игрок А должен угадать число X.

    Решение.

    Вначале имеется максимальная неопределенность информации, поскольку ни одно число не выбрано. Игрок Б последовательно задает вопросы с целью уменьшить неопределенность информации и, соответственно, увеличить определенность информации.

    Вопрос 1: N1=N/2; Х>N1. Ответ: нет. Диапазон искомых чисел уменьшается в 2 раза.

    Вопрос 2: N2=N1/2; Х>N2. Ответ: да. Диапазон искомых чисел уменьшается в 4 раза.

    Вопрос 3: N3=(N1 N2)/2; Х>N3. Ответ: нет. Диапазон искомых чисел уменьшается в 8 раз.

    Вопрос K(последний): … Ответ: нет. Диапазон искомых чисел уменьшается в 2 в степени K раз.

    Последний вопрос задается тогда, когда диапазон искомых чисел содержит только 2 числа.

    Их решения задачи видно, что при каждом новом получении информации ее неопределенность уменьшается вдвое вплоть до достижения максимальной определенности.

    Содержательный (вероятностный) подход к вычислению количества информации. формула шеннона

    Формулу для вычисления количества информации в случае различных вероятностей элементарных событий предложил Клод Шеннон в 1948 году:

    I = — (p1*log2p1 p2 *log2 p2 . . . pN *log2 pN),

    где I – количество информации;

    pi — вероятность i-го элементарного события;

    N — количество возможных элементарных событий.

    Исследуем эту формулу.

    Пусть

    p1= p2=…= pN , поэтому pN=1/N.

    Тогда

    I = — (pN *log2 pN pN *log2 pN . . . pN *log2 pN)

    I = — N* pN *log2 pN = — N * (1/N) *log2 (1/N)

    I = — log2 (1/N)

    I = log2 (N).

    Последняя формула носит название формулы Хартли. Как следует из рассуждений, ее можно использовать для вычисления энтропии равновероятных событий.

    Количество информации носит название бит.

    Примечания к формуле Хартли.

    • Если =1, то =0. Это означает, что наступление достоверного или невозможного события не несет никакой информации.

    • Пусть =2, тогда =1 (бит), т. е. одному биту информации образует множество из двух элементарных событий.

    • Формулу Хартли можно записать также в таком виде: =2I.

    Рассмотрим примеры.

    Вычислим количество информации для Примера 12.

    Имеем: p1=1/2, p2=1/2, N=2

    I = -(l/2*log2(1/2) l/2*log2(1/2) ) = -(l/2*(-1) l/2*(-1)) = 1 (бит).

    Следовательно, 1 бит информации — это количество информации, необходимое для различения двух равновероятных сообщений

    Пусть при бросании несимметричной четырехгранной пирамидки вероятности отдельных событий будут равны:p1 = 1/2, p2 = 1/4, p3 = 1/8,p4 = 1/8.

    Рассчитаем по формуле Шеннона количество информации, которое мы получим в результате бросания данной пирамидки:

    I = -(l/2 log2(1/2) l/4 log2(1/4) l/8 log2(1/8) l/8 log2(1/8)) = (1/2 2/4 3/8 3/8) битов = 14/8 битов = 1,75 бита.

    Оцените статью
    Реферат Зона
    Добавить комментарий