Реферат: Понятие и свойства информации, ее виды — Информатика программирование

Реферат: Понятие и свойства информации, ее виды - Информатика программирование Реферат

Введение

Тема 
является актуальной, потому что современное 
общество нуждается в получении 
нужной ему информации. Человек без
информации не сможет учиться, работать,
создавать что-то новое и т.д. Каждая информация
индивидуальна,  поэтому важно подобрать
ее вид, свойства и меру. Не зная этих тонкостей,
невозможно предоставить обществу объективную
информацию.

Цель
работы: понять, что такое информация и
как  она подразделяется.

Задачи:
1) изучить понятие «информация»;

              
2) описать виды, свойства и меры 
информации.

Объектом 
изучения является информация.

Работа выполнена 
с использованием MS Word и MS Excel, на компьютере
с процессором Intel(R) Celeron(R) D CPU 220 @ 1.20GHz.

Что можно делать с информацией

создаватьприниматькомбинироватьхранить
передаватькопироватьобрабатыватьискать
восприниматьформализоватьделить на частиизмерять
использоватьраспространятьупрощатьразрушать
запоминатьпреобразовыватьсобиратьи т. д.

Все эти
процессы, связанные с определенными операциями над информацией, называются
информационными процессами.

1. Понятие «информация»

Информация относится
к фундаментальным, неопределяемым понятиям
науки информатика. Тем не менее смысл
этого понятия должен быть разъяснен.
Предпримем попытку рассмотреть это понятие
с различных позиций.

Термин информация происходит
от латинского слова informatio,
что означает сведения, разъяснения, изложение. В настоящее
время наука пытается найти общие свойства
и закономерности, присущие многогранному
понятию информация, но пока это понятие
во многом остается интуитивным и получает
различные смысловые наполнения в различных
отраслях человеческой деятельности:

··в быту
информацией называют любые данные, сведения,
знания, которые кого-либо интересуют.
Например, сообщение о каких-либо событиях,
о чьей-либо деятельности и т.п.;

··в технике
под информацией понимают сообщения, передаваемые
в форме знаков или сигналов (в этом случае
есть источник сообщений, получатель (приемник)
сообщений, канал связи);

··в кибернетике
под информацией понимают ту часть знаний,
которая используется для ориентирования,
активного действия, управления, т.е. в
целях сохранения, совершенствования,
развития системы;

··в теории
информации под
информацией понимают сведения об объектах
и явлениях окружающей среды, их параметрах,
свойствах и состоянии, которые уменьшают
имеющуюся о них степень неопределенности,
неполноты знаний.

Согласно 
Большому энциклопедическому словарю,
информация — первоначально — сведения,
передаваемые людьми устным, письменным
или другим способом (с помощью условных
сигналов, технических средств и т.д.);
с сер. XX в. — общенаучное понятие, включающее
обмен сведениями между людьми, человеком
и автоматом, автоматом и автоматом; обмен
сигналами в животном и растительном мире;
передачу признаков от клетки к клетке,
от организма к организму; одно из основных
понятий кибернетики.

Применительно
к компьютерной обработке данных
под информацией понимают некоторую 
последовательность символических 
обозначений (букв, цифр, закодированных
графических образов и звуков
и т.п.), несущую смысловую нагрузку
и представленную в понятном компьютеру
виде. Каждый новый символ в такой последовательности
символов увеличивает информационный
объем сообщения.[2]

Информация 
есть характеристика не сообщения, а 
соотношения между сообщением и 
его потребителем. Без наличия 
потребителя, хотя бы потенциального,
говорить об информации бессмысленно.
В случаях, когда говорят об автоматизированной
работе с информацией посредством каких-либо
технических устройств, обычно в первую
очередь интересуются не содержанием
сообщения, а тем, сколько символов это
сообщение содержит.

Применительно к компьютерной
обработке данных под информацией понимают
некоторую последовательность символических
обозначений (букв, цифр, закодированных
графических образов и звуков и т. п.), несущую
смысловую нагрузку и представленную
в понятном компьютеру виде. Каждый новый
символ в такой последовательности символов
увеличивает информационный объем сообщения.[3]

2. Виды информации

Таблица 1

Классификация
информации.

По способам восприятия

По форме представления

По общественному значению

Визуальная 
Аудиальная 
Тактильная 
Обонятельная 
Вкусовая

Текстовая 
Числовая 
Графическая 
Звуковая

Видеоинформация

Массовая 
— обыденная 
— общественно-политическая 
— эстетическая 
Специальная 
— научная 
— производственная 
— техническая 
— управленческая 
Личная 
— знания 
— умения 
— навыки 
— интуиция

Виды информации
по способу восприятия.

У человека
пять органов чувств, с их помощью 
человек получает информацию о внешнем 
мире: зрение, слух, обоняние, вкус, осязание.
Практически около 90% информации человек 
получает при помощи органов зрения
(визуальный), примерно 9% — при помощи
органов слуха (аудиальный ) и только
1% при помощи остальных органов 
чувств (обоняния, вкуса, осязания).[4]

Основные 
виды информации по ее форме представления,
способам ее кодирования и хранения, что
имеет наибольшее значение для информатики,
это:

  1. текстовая — способ кодирования
    речи человека специальными символами
    — буквами, причем разные народы имеют
    разные языки и используют различные наборы
    букв для отображения речи; особенно большое
    значение этот способ приобрел после изобретения
    бумаги и книгопечатания;
  2. числовая — количественная
    мера объектов и их свойств в окружающем
    мире; особенно большое значение приобрела
    с развитием торговли, экономики и денежного
    обмена; аналогично текстовой информации
    для ее отображения используется метод
    кодирования специальными символами —
    цифрами, причем системы кодирования (счисления)
    могут быть разными;
  3. графическая — первый вид, для которого был реализован
    способ хранения информации об окружающем
    мире в виде наскальных рисунков, а позднее
    в виде картин, фотографий, схем, чертежей
    на бумаге, холсте, мраморе и др. материалах,
    изображающих картины реального мира;
  4. звуковая — мир вокруг нас
    полон звуков и задача их хранения и тиражирования
    была решена с изобретением звукозаписывающих
    устройств в 1877 г.
  5. видеоинформация
    — способ сохранения «живых» картин окружающего
    мира, появившийся с изобретением кино.[5]

3. Свойства информации

Информация
— это отражение внешнего мира с помощью
знаков или сигналов. Информационная ценность
сообщения заключается в новых сведениях,
которые в нем содержатся (в уменьшении
незнания).

Выделяют 
следующие свойства информации:

1. Объективность информации

Информация — это отражение 
внешнего мира, а он существует независимо
от нашего сознания и желания. Поэтому 
в качестве свойства информации можно 
выделить ее объективность. Информация
объективна, если она не зависит 
от чьего-либо мнения, суждения.

Объективную информацию можно получить
с помощью исправных датчиков,
измерительных приборов. Но, отражаясь 
в сознании конкретного человека,
информация перестает быть объективной,
так как преобразовывается (в 
большей или меньшей степени)
в зависимости от мнения, суждения,
опыта, знания или «вредности» конкретного 
субъекта.

2. Достоверность информации

Информация достоверна, если она 
отражает истинное положение дел. Объективная 
информация всегда достоверна, но достоверная 
информация может быть как объективной,
так и субъективной. Достоверная 
информация помогает принять нам 
правильное решение. Недостоверной 
информация может быть по следующим 
причинам:

  • преднамеренное искажение (дезинформация);
  • искажение в результате воздействия помех («испорченный телефон»);
  • когда значение реального факта преуменьшается или преувеличивается (слухи, рыбацкие истории).

3. Полнота информации

Информацию можно назвать полной,
если ее достаточно для понимания 
и принятия решения.

4. Актуальность (своевременность) 
информации 

Актуальность — важность, существенность
для настоящего времени. Только вовремя 
полученная информация может принести
необходимую пользу. Неактуальной информация
может быть по двум причинам: она 
может быть устаревшей (прошлогодняя
газета) либо незначимой, ненужной (например,
сообщение о том, что в Италии
снижены цены на 5%).

5. Полезность или бесполезность 
(ценность) информации.

Так как границы между этими 
понятиями нет, то следует говорить
о степени полезности применительно 
к нуждам конкретных людей. Полезность
информации оценивается по тем задачам,
которые мы можем решить с ее помощью.

Самая ценная для нас информация
— достаточно полезная, полная, объективная,
достоверная и новая. При этом
примем во внимание, что небольшой 
процент бесполезной информации
даже помогает, позволяя отдохнуть 
на неинформативных участках текста.
А самая полная, самая достоверная 
информация не может быть новой. [6]

Рефераты:  Реферат "Основные задачи искусственного интеллекта"

Кроме этого
информация обладает еще следующими свойствами:

1) Атрибутивные
свойства (атрибут – неотъемлемая
часть чего-либо). Важнейшими среди них
являются:- дискретность (информация состоит
из отдельных частей, знаков) и непрерывность
(возможность накапливать информацию)

2) Динамические
свойства связаны с изменением
информации во времени:

— копирование 
– размножение информации

— передача 
от источника к потребителю

— перевод 
с одного языка на другой 

— перенос 
на другой носитель

— старение (физическое 
– носителя, моральное – ценностное)

3) Практические
свойства — информационный объем
и плотность[3]

4. Меры информации

Для
измерения информации вводятся два 
параметра: количество информации I и 
объем данных VД. Эти параметры 
имеют разные выражения и интерпретацию 
в зависимости от рассматриваемой формы
адекватности. Каждой форме адекватности
соответствует своя мера количества информации
и объема данных.

Рис. 1 Меры Информации.

Синтаксическая 
мера информации оперирует с обезличенной
информацией, не выражающей смыслового
отношения к объекту. На этом уровне
объем данных в сообщении измеряется
количеством символов в этом сообщении.
В современных ЭВМ минимальной 
единицей измерения данных является
бит — один двоичный разряд.

Семантическая
мера информации используется для измерения 
смыслового содержания информации. Наибольшее
распространение здесь получила
тезаурусная мера, связывающая семантические 
свойства информации со способностью
пользователя принимать поступившее 
сообщение.

Тезаурус — это совокупность
сведений, которыми располагает пользователь
или система. Максимальное количество
семантической информации потребитель 
получает при согласовании ее смыслового
содержания со своим тезаурусом, когда 
поступающая информация понятна 
пользователю и несет ему ранее 
не известные сведения.

Прагматическая 
мера информации определяет ее полезность,
ценность для процесса управления.
Обычно ценность информации измеряется
в тех же единицах, что и целевая 
функция управления системой.[1]

1.
Задание. Вариант № 19

Пекарня
реализует свою продукцию по ценам,
указанным в прайс- листе (рис. 19.1).

Для
решения задачи необходимо следующее.

Свойства информации

Информация
обладает следующими свойствами:

·
достоверность

·
полнота

·
точность

·
ценность

·
своевременность

·
понятность

·
доступность

·
краткость и т. д.

Информация
достоверна, если она отражает истинное положение дел. Недостоверная
информация может привести к неправильному пониманию или принятию неправильных
решений. Достоверная информация со временем может стать недостоверной,
так как она обладает свойством устаревать, т. е. перестает отражать
истинное положение дел.

Информация полна, если ее достаточно для
понимания и принятия решений. Как неполная, так и избыточная информация
сдерживает принятие решений или может повлечь ошибки. Точность
информации определяется степенью ее близости к реальному состоянию объекта,
процесса, явления и т. п.

Ценность информации зависит от того, насколько
она важна для решения задачи, а также от того, насколько в дальнейшем она
найдет применение в каких-либо видах деятельности человека. Только
своевременно полученная информация может принести ожидаемую пользу.

Одинаково нежелательны как преждевременная подача информации (когда она еще не
может быть усвоена), так и ее задержка. Если ценная и своевременная информация
выражена непонятным образом, она может стать бесполезной.
Информация становится понятной, если она выражена языком, на котором
говорят те, кому предназначена эта информация.

Информация должна преподноситься
в доступной (по уровню восприятия) форме. Поэтому одни и те же вопросы
по-разному излагаются в школьных учебниках и научных изданиях. Информацию по
одному и тому же вопросу можно изложить кратко (сжато, без
несущественных деталей) или пространно (подробно, многословно).

Краткость информации необходима в справочниках, энциклопедиях, всевозможных
инструкциях. Понятие
«информация» используется в различных науках, при этом в каждой науке понятие
«информация»связано с различными системами понятий. Информация в
биологии:

Биология изучает живую природу и понятие «информация»
связывается с целесообразным поведением живых организмов. В живых организмах
информация передается и храниться с помощью объектов различной физической
природы (состояние ДНК), которые рассматриваются как знаки биологических
алфавитов.

Генетическая информация передается по наследству и хранится во всех
клетках живых организмов. Философский подход:
Информация – это взаимодействие, отражение, познание. Кибернетический
подход: Информация– это характеристики управляющего сигнала,
передаваемого по линии связи.

Можно
выделить следующие подходы к определению информации:

* традиционный (обыденный) — используется в информатике: Информация – это сведения, знания, сообщения о
положении дел, которые человек воспринимает из окружающего мира с помощью
органов чувств (зрения, слуха, вкуса, обоняния, осязания).

* вероятностный
— используется в теории об информации: Информация – это сведения об
объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии,
которые уменьшают имеющуюся о них степень неопределённости и неполноты знаний.

Для
человека:Информация – это знания, которые он
получает из различных источников с помощью органов чувств

Знания
делят на две группы:

1. Декларативные – от слова декларация (утверждения,
сообщения) начинаются со слов «Я знаю, что …»;

2. Процедурные – определяют действия для достижения
какой-либо цели, начинаются со слов «Я знаю, как …»

Классификация
информации

По способам восприятия — Визуальная, Аудиальная, Тактильная, Обонятельная,
вкусовая;

По
формам представления –Текстовая, Числовая, Графическая,
Музыкальная,Комбинированная и тд.

По общественному значению: Массовая —
обыденная, общественно-политическая, эстетическая

Специальная — научная,
техническая, управленческая, производственная

Личная – наши знания, умения, интуиция

Основные свойства информации:

Объективность

не зависит от чего-либо мнения

Достоверность – отражает истинное
положение дел

Полнота– достаточна для
понимания и принятия решения

Актуальность – важна и
существенна для настоящего времени

Ценность
(полезность, значимость)- обеспечивает решение поставленной задачи,
нужна для того чтобы принимать правильные решения

Понятность
(ясность)– выражена на языке, доступном получателю

Кроме
этого информация обладает еще следующими свойствами:

1) Атрибутивные
свойства (атрибут – неотъемлемая часть чего-либо). Важнейшими среди
них являются:- дискретность (информация состоит из отдельных частей, знаков) и
непрерывность (возможность накапливать информацию)

2) Динамические
свойства связаны с изменением информации во времени:


копирование – размножение информации


перевод с одного языка на другой


перенос на другой носитель


старение (физическое – носителя, моральное – ценностное)

3) Практические
свойства — информационный объем и плотность

Информация
храниться, передается и обрабатывается в символьной (знаковой) форме. Одна и та
же информация может быть представлена в различной форме:1) Знаковой письменной,
состоящей из различных знаков среди которых выделяют символьную в виде текста,
чисел, спец. символов; графическую; табличную и тд.; 2)

В виде жестов или
сигналов; 3) В устной словесной форме (разговор). Представление информации осуществляется с помощью
языков, как знаковых систем, которые строятся на основе определенного алфавита
и имеют правила для выполнения операций над знаками.

Язык – определенная знаковая система
представления информации. Существуют:

Естественные
языки –
разговорные языки в устной и письменной форме. В некоторых случаях разговорную
речь могут заменить язык мимики и жестов, язык специальных знаков (например,
дорожных);

Формальные
языки –
специальные языки для различных областей человеческой деятельности, которые
характеризуются жестко зафиксированным алфавитом, более строгими правилами
грамматики и синтаксиса. Это язык музыки (ноты), язык математики (цифры,
математические знаки), системы счисления, языки программирования и т.д.

В основе
любого языка лежит алфавит– набор
символов/знаков. Полное число символов алфавита принято называть мощностью
алфавита.

Рефераты:  История развития компьютерной техники | Kursak.NET

Носители
информации – среда или физическое тело для передачи, хранения и воспроизведения
информации. (Это электрические, световые, тепловые, звуковые, радио сигналы,
магнитные и лазерные диски, печатные издания, фотографии и тд.)

Информационные
процессы — это процессы, связанные с получением, хранением,
обработкой и передачей информации (т.е. действия, выполняемые с информацией).
Т.е. это процессы, в ходе которых изменяется содержание информации или форма её
представления.

Для
обеспечения информационного процесса необходим источник информации, канал связи
и потребитель информации. Источник передает (отправляет) информацию, а приемник
её получает (воспринимает). Передаваемая информация добивается от источника до
приемника с помощью сигнала (кода).

Изменение сигнала позволяет получить
информацию. Понятие информация является одним из фундаментальных в современной
науке вообще и базовым для информатики. Информацию наряду с веществом и
энергией рассматривают в качестве важнейшей сущности мира, в котором мы живем.

Однако, если задаться целью формально определить понятие «информация», то
сделать это будет чрезвычайно сложно. В простейшем бытовом понимании с термином
«информация» обычно ассоциируются некоторые сведения, данные, знания и т.п.
Информация передается в виде сообщений, определяющих форму и представление
передаваемой информации.

Примерами сообщений являются музыкальное произведение;
телепередача; команды регулировщика на перекрестке; текст, распечатанный на
принтере; данные, полученные в результате работы составленной вами программы и
т.д. При этом предполагается, что имеются «источник информации» и «получатель
информации».

Сообщение от источника к получателю передается посредством
какой-нибудь среды, являющейся в таком случае «каналом связи». Так, при
передаче речевого сообщения в качестве такого канала связи можно рассматривать
воздух, в котором распространяются звуковые волны, а в случае передачи
письменного сообщения (например, текста, распечатанного на принтере) каналом
сообщения можно считать лист бумаги, на котором напечатан текст.

Человеку
свойственно субъективное восприятие информации через некоторый набор ее
свойств: важность, достоверность, своевременность, доступность, «больше-меньше»
и т.д. Использование терминов «больше информации» или «меньше информации»
подразумевает некую возможность ее измерения (или хотя бы количественного
соотнесения).

При субъективном восприятии измерение информации возможно лишь в
виде установления некоторой субъективной порядковой шкалы для оценки
«больше-меньше». При объективном измерении количества информации следует
заведомо отрешиться от восприятия ее с точки зрения субъективных свойств,
примеры которых перечислены выше.

Более того, не исключено, что не всякая
информация будет иметь объективно измеряемое количество. Чтобы сообщение было
передано от источника к получателю необходима некоторая материальная субстанция
— носитель информации. Сообщение, передаваемое с помощью носителя — сигнал.

В
общем случае сигнал — это изменяющийся во времени физический процесс. Та из
характеристик процесса, которая используется для представления сообщений,
называется параметром сигнала. В случае, когда параметр сигнала принимает
последовательное во времени конечное число значений (при этом все они могут
быть пронумерованы), сигнал называется дискретным, а сообщение, передаваемое с
помощью таких сигналов — дискретным сообщением.

Если же источник вырабатывает
непрерывное сообщение (соответственно параметр сигнала — непрерывная функция от
времени), то соответствующая информация называетсянепрерывной.
Примеры дискретного сообщения — текст книги, непрерывного сообщения —
человеческая речь, передаваемая модулированной звуковой волной; параметром
сигнала в этом случае является давление, создаваемое этой волной в точке
нахождения приемника — человеческого уха.

Непрерывное сообщение может быть представлено непрерывной
функцией, заданной на некотором интервале. Непрерывное сообщение можно
преобразовать в дискретное (такая процедура называется дискретизацией). Из
бесконечного множества значений параметра сигнала выбирается их определенное
число, которое приближенно может характеризовать остальные значения.

Для этого
область определения функции разбивается на отрезки равной длины и на каждом из
этих отрезков значение функции принимается постоянным и равным, например,
среднему значению на этом отрезке. В итоге получим конечное множество чисел.
Таким образом, любое непрерывное сообщение может быть представлено как
дискретное, иначе говоря, последовательностью знаков некоторого алфавита.

Возможность дискретизации непрерывного сигнала с любой
желаемой точностью (для возрастания точности достаточно уменьшить шаг)
принципиально важна с точки зрения информатики. Компьютер — цифровая машина,
т.е. внутреннее представление информации в нем дискретно.

Единицы количества информации:
вероятностный и объемный подходы

Определить понятие «количество информации» довольно сложно. В
решении этой проблемы существуют два основных подхода. Исторически они возникли
почти одновременно. В конце 40-х годов XX века один из основоположников
кибернетики американский математик Клод Шеннон развил вероятностный подход к
измерению количества информации, а работы по созданию ЭВМ привели к «объемному»
подходу.

Вероятностный подход

Рассмотрим в качестве примера опыт, связанный с бросанием
правильной игральной кости, имеющей N граней. Результаты данного опыта
могут быть следующие: выпадение грани с одним из следующих знаков: 1, 2, . . . N.

Введем в рассмотрение численную величину, измеряющую
неопределенность — энтропию (обозначим ее H). Согласно развитой
теории, в случае равновероятного выпадания каждой из граней величины N и
H связаны между собой формулой Хартли

H = log2N.

Важным при введении какой-либо величины является вопрос о
том, что принимать за единицу ее измерения. Очевидно, H будет равно
единице при N = 2. Иначе говоря, в качестве единицы принимается
количество информации, связанное с проведением опыта, состоящего в получении одного
из двух равновероятных исходов (примером такого опыта может служить бросание
монеты при котором возможны два исхода: «орел», «решка»). Такая единица
количества информации называется «бит».

В случае, когда вероятности Piрезультатов опыта (в примере,
приведенном выше — бросания игральной кости) неодинаковы, имеет место формула
Шеннона

В случае равновероятности событий, и формула Шеннона переходит в
формулу Хартли.

В качестве примера определим количество информации, связанное
с появлением каждого символа в сообщениях, записанных на русском языке. Будем
считать, что русский алфавит состоит из 33 букв и знака «пробел» для разделения
слов. По формуле Хартли H = log2 34 ~ 5.09 бит.

Однако, в словах русского языка (равно как и в словах других
языков) различные буквы встречаются неодинаково часто. Ниже приведена табл. 3
вероятностей частоты употребления различных знаков русского алфавита,
полученная на основе анализа очень больших по объему текстов.

Воспользуемся для подсчета H формулой Шеннона:H
~ 4.72 бит. Полученное значение H, как и можно было предположить, меньше
вычисленного ранее. Величина H, вычисляемая по формуле Хартли, является
максимальным количеством информации, которое могло бы приходиться на один знак.

Аналогичные подсчеты H можно провести и для других языков, например,
использующих латинский алфавит — английского, немецкого, французского и др. (26
различных букв и «пробел»). По формуле Хартли получим H = log2
27 ~ 4.76 бит.

Таблица 1.Частотность букв русского языка

i
Символ
P(i)
I
Символ
P(i)
I
Символ
P(i)
1
_
0.175
12
Л
0.035
23
Б
0.014
2
О
0.090
13
К
0.028
24
Г
0.012
3
Е
0.072
14
М
0.026
25
Ч
0.012
4
Ё
0.072Д
0.025
26
Й
0.010
5
А
0.062
16
П
0.023
27
Х
0.009
6
И
0.062
17
У
0.021
28
Ж
0.007
7
T
0.053
18
Я
0.018
29
Ю
0.006
8
H
0.053
19
Ы
0.016
30
Ш
0.006
9
C
0.045
20
З
0.016
31
Ц
0.004
10
P
0.040
21
Ь
0.014
32
Щ
0.003
11
B
0.038
22
Ъ
0.014
33
Э
0.003
34
ФРассмотрим алфавит, состоящий из двух знаков 0 и 1.Если
считать, что со знаками 0 и 1 в двоичном алфавите связаны одинаковые
вероятности их появления (P(0)=P(1)=0.5), то количество
информации на один знак при двоичном кодировании будет равно

Рефераты:  Статья: Технологии рационального поведения -

H = log2 2 = 1 бит.

Таким образом, количество информации (в битах), заключенное в
двоичном слове, равно числу двоичных знаков в нем.

Объемный подходВ двоичной системе счисления знаки 0 и 1 называют битами(от английского выражения Binary digiTs — двоичные цифры).В компьютере
бит является наименьшей возможной единицей информации. Объем информации,
записанной двоичными знаками в памяти компьютера или на внешнем носителе
информации, подсчитывается просто по количеству требуемых для такой записи
двоичных символов.При этом, в частности, невозможно нецелое число битов (в
отличие от вероятностного подхода).

Для удобства использования введены и более крупные, чем бит,
единицы количества информации. Так, двоичное слово из восьми знаков содержит
один байт информации.1024 байта образуют килобайт (Кбайт), 1024
килобайта — мегабайт (Мбайт), а 1024 мегабайта — гигабайт(Гбайт).

Между вероятностным и объемным количеством информации
соотношение неоднозначное. Далеко не всякий текст, записанный двоичными
символами, допускает измерение объема информации в вероятностном
(кибернетическом) смысле, но заведомо допускает его в объемном.Далее, если
некоторое сообщение допускают измеримость количества информации в обоих
смыслах, то это количество не обязательно совпадает, при этом кибернетическое
количество информации не может быть больше объемного. В прикладной информатике
практически всегда количество информации понимается в объемном смысле.Как ни
важно измерение информации, нельзя сводить к нему все связанные с этим понятием
проблемы. При анализе информации социального (в широким смысле) происхождения
на первый план могут выступить такие ее свойства как истинность,
своевременность, ценность, полнота и т.д.Их невозможно оценить в терминах
«уменьшение неопределенности» (вероятностный подход) или числа символов
(объемный подход). Обращение к качественной стороне информации породило иные
подходы к ее оценке. При аксиологическом подходе стремятся исходить из
ценности, практической значимости информации, т.е. качественных характеристик,
значимых в социальной системе.При семантическом подходе информация
рассматривается как с точки зрения формы, так и содержания. При этом информацию
связывают с тезаурусом, т.е. полнотой систематизированного набора данных
о предмете информации. Отметим, что эти подходы не исключают количественного
анализа, но он становится существенно сложнее и должен базироваться на
современных методах математической статистики.Понятие информации нельзя считать лишь техническим,
междисциплинарным и даже наддисциплинарным термином. Информация — это
фундаментальная философская категория. Дискуссии ученых о философских аспектах
информации надежно показали несводимость информации ни к одной из этих категорий.Концепции и толкования, возникающие на пути догматических подходов, оказываются
слишком частными, односторонними, не охватывающими всего объема этого понятия.

Попытки рассмотреть категорию информации с позиций основного
вопроса философии привели к возникновению двух противостоящих концепций — так
называемых, функциональной и атрибутивной. «Атрибутисты»
квалифицируют информацию как свойство всех материальных объектов, т.е. как
атрибут материи. «Функционалисты» связывают информацию лишь с функционированием
сложных, самоорганизующихся систем. Можно попытаться дать философское
определение информации с помощью указания на связь определяемого понятия с
категориями отражения и активности.

Информация есть содержание
образа, формируемого в процессе отражения. Активность входит в это определение
в виде представления о формировании некоего образа в процессе отражения
некоторого субъект-объектного отношения. При этом не требуется указания на
связь информации с материей, поскольку как субъект, так и объект процесса отражения
могут принадлежать как к материальной, так и к духовной сфере социальной жизни.

Однако существенно подчеркнуть, что материалистическое решение основного
вопроса философии требует признания необходимости существования материальной
среды — носителя информации в процессе такого отражения. Итак, информацию
следует трактовать как имманентный (неотъемлемо присущий) атрибут материи,
необходимый момент ее самодвижения и саморазвития.

Эта категория приобретает
особое значение применительно к высшим формам движения материи — биологической
и социальной. Известно большое количество работ, посвященных физической
трактовке информации. Эти работы в значительной мере построены на
основе аналогии формулы Больцмана, описывающей энтропию статистической системы
материальных частиц, и формулы Хартли.

Соответствующие материалы можно найти в
литературе, отраженной в приведенном ниже перечне. Информацию следует считать
особым видом ресурса, при этом имеется в виду толкование
«ресурса» как запаса неких знаний материальных предметов или энергетических,
структурных или каких-либо других характеристик предмета.

В отличие от
ресурсов, связанных с материальными предметами, информационные ресурсы являются
неистощимыми и предполагают существенно иные методы воспроизведения и обновления,
чем материальные ресурсы. В связи с таким взглядом центральными становятся
следующие свойства информации: запоминаемость, передаваемость, преобразуемость,
воспроизводимость, стираемость.

Подводя итог сказанному, отметим,
что предпринимаются (но отнюдь не завершены) усилия ученых, представляющих
самые разные области знания, построить единую теорию, которая призвана
формализовать понятие информации и информационного процесса, описать
превращения информации в процессах самой разной природы.

Движение информации
есть сущность процессов управления, которые суть проявление имманентной
активности материи, ее способности к самодвижению. С момента возникновения
кибернетики управление рассматривается применительно ко всем формам движения
материи, а не только к высшим (биологической и социальной).

Многие проявления
движения в неживых — искусственных (технических) и естественных (природных) —
системах также обладают общими признаками управления, хотя их исследуют в
химии, физике, механике в энергетической, а не в информационной системе
представлений.

Информационные аспекты в таких системах составляют предмет новой
междисциплинарной науки — синергетики. Высшей формой информации, проявляющейся
в управлении в социальных системах, являются знания. Это наддисциплинарное понятие,
широко используемое в педагогике и исследованиях по искусственному интеллекту,
также претендует на роль важнейшей философской категории.

Заключение

В заключении
можно отметить, что понятие «информация»
многогранно. Она охватывает все стороны
жизни общества — от материального производства
до социальной сферы. Информация — сведения
об объектах и явлениях окружающей среды,
их параметрах, свойствах и состоянии,
которые воспринимают информационные
системы (живые организмы, управляющие
машины и др.) в процессе жизнедеятельности
и работы.

Свойства 
информации очень важны, так как 
без них информация не будет иметь 
какой-либо ценности. Информация объективна,
если она не зависит от чьего-либо мнения,
суждения; достоверна, если она отражает
истинное положение; полна, если ее достаточно
для понимания и принятия решения; актуальна
(своевременна), если она важна, существенна
для настоящего времени.

Оцените статью
Реферат Зона
Добавить комментарий