Меню Рубрики

Определение информации с точки зрения компьютера

В понятие «информация» (от лат. informatio – сведения, разъяснения, изложение) вкладывается различный смысл соответственно той отрасли, где это понятие рассматривается: в науке, технике, обычной жизни и т.д. Обычно под информацией подразумевают любые данные или сведения, которые кого-либо интересуют (сообщение о каких-либо событиях, о чьей-либо деятельности и т.п.).

В литературе можно найти большое число определений термина «информация», которые отражают различные подходы к его толкованию:

  • Информация – сведения (сообщения, данные) независимо от формы их представления («Федеральный закон РФ от $27.07.2006$ г. № $149$-ФЗ Об информации, информационных технологиях и о защите информации»);
  • Информация – сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством (Толковый словарь русского языка Ожегова).

Говоря о компьютерной обработке данных под информацией понимают некоторую последовательность символов или знаков (букв, цифр, закодированных графических образов и звуков и т. п.), которая несет смысловую нагрузку и представлена в понятном для компьютера виде.

Попробуй обратиться за помощью к преподавателям

В информатике наиболее часто используется следующее определение этого термина:

Информация – это осознанные сведения (знания, выраженные в сигналах, сообщениях, известиях, уведомлениях и т.д.) об окружающем мире, которые являются объектом хранения, преобразования, передачи и использования.

Одно и то же информационное сообщение (статья в журнале, объявление, рассказ, письмо, справка, фотография, телепередача и т. п.) может нести разное количество и содержание информации для различных людей в зависимости от накопленных ими знаниями, от уровня доступности этого сообщения и от уровня интереса к нему. Например, новость, составленная на китайском языке, не несет никакой информации человеку, который не знает этого языка, но может быть полезной для человека со знанием китайского. Никакой новой информации не будет содержать и новость, изложенная на знакомом языке, если ее содержание непонятно или уже известно.

Задай вопрос специалистам и получи
ответ уже через 15 минут!

Информацию рассматривают как характеристику не сообщения, а соотношения между сообщением и его получателем.

Виды информации

Информация может существовать в различных видах:

  • текст, рисунки, чертежи, фотографии;
  • световые или звуковые сигналы;
  • радиоволны;
  • электрические и нервные импульсы;
  • магнитные записи;
  • жесты и мимика;
  • запахи и вкусовые ощущения;
  • хромосомы, через которые передаются по наследству признаки и свойства организмов, и т. д.

Различают основные виды информации, которые классифицируют по ее форме представления, способам ее кодирования и хранения:

  • графическая – один из древнейших видов, с помощью которого хранили информацию об окружающем мире в виде наскальных рисунков, а затем в виде картин, фотографий, схем, чертежей на различных материалах (бумага, холст, мрамор и др.), которые изображают картины реального мира;
  • звуковая (акустическая) – для хранения звуковой информации в $1877$ г. было изобретено звукозаписывающее устройство, а для музыкальной информации – разработан способ кодирования с использованием специальных символов, который дает возможность хранить ее как графическую информацию;
  • текстовая – кодирует речь человека с помощью специальных символов – букв (для каждого народа свои); для хранения используется бумага (записи в тетради, книгопечатание и т.п.);
  • числовая – кодирует количественную меру объектов и их свойств в окружающем мире с помощью специальных символов – цифр (для каждой системы кодирования свои); особенно важной стала с развитием торговли, экономики и денежного обмена;
  • видеоинформация – способ хранения «живых» картин окружающего мира, который появился с изобретением кино.

Существуют также виды информации, для которых еще не изобретены способы кодирования и хранения – тактильная информация, органолептическая и др.

Первоначально информация передавалась на большие расстояния с помощью кодированных световых сигналов, после изобретения электричества – передачи закодированного определенным образом сигнала по проводам, позже – используя радиоволны.

Основателем общей теории информации считают Клода Шеннона, который также положил основу цифровой связи, написав книгу «Математическая теория связи» в $1948$ г., в которой впервые обосновал возможность использования двоичного кода для передачи информации.

Первые компьютеры являлись средством для обработки числовой информации. С развитием компьютерной техники ПК стали использовать для хранения, обработки, передачи различного вида информации (текстовой, числовой, графической, звуковой и видеоинформации).

Хранить информацию с помощью ПК можно на магнитных дисках или лентах, на лазерных дисках (CD и DVD), специальных устройствах энергонезависимой памяти (флэш-память и пр.). Эти методы постоянно совершенствуются, изобретаются и носители информации. Все действия с информацией выполняет центральный процессор ПК.

Предметы, процессы, явления материального или нематериального мира, если их рассматривать с точки зрения их информационных свойств, называют информационными объектами.

Над информацией можно выполнять огромное количество различных информационных процессов, среди которых:

  • создание;
  • прием;
  • комбинирование;
  • хранение;
  • передача;
  • копирование;
  • обработка;
  • поиск;
  • воспринятие;
  • формализация;
  • деление на части;
  • измерение;
  • использование;
  • распространение;
  • упрощение;
  • разрушение;
  • запоминание;
  • преобразование;
  • сбор

Свойства информации

Информация, как и любой объект, обладает свойствами, наиболее важными среди которых, с точки зрения информатики, являются:

  • Объективность. Объективная информация – существующая независимо от человеческого сознания, методов ее фиксации, чьего-либо мнения или отношения.
  • Достоверность. Информация, отражающая истинное положение дел, является достоверной. Недостоверная информация чаще всего приводит к неправильному пониманию или принятию неправильных решений. Устаревание информации может из достоверной информации сделать недостоверную, т.к. она уже не будет отражением истинного положения дел.
  • Полнота. Информация является полной, если она достаточна для понимания и принятия решений. Неполная или избыточная информация может привести к задержке принятия решения или к ошибке.
  • Точность информации – степень ее близости к реальному состоянию объекта, процесса, явления и т. п.
  • Ценность информации зависит от ее важности для принятия решения, решения задачи и дальнейшей применимости в каких-либо видах деятельности человека.
  • Актуальность. Только своевременность получения информации может привести к ожидаемому результату.
  • Понятность. Если ценную и своевременную информацию выразить непонятно, то она, скорее всего, станет бесполезной. Информация будет понятной, когда она, как минимум, выражена понятным для получателя языком.
  • Доступность. Информация должна соответствовать уровню восприятия получателя. Например, одни и те же вопросы по-разному излагаются в учебниках для школы и вуза.
  • Краткость. Информация воспринимается гораздо лучше, если она представлена не подробно и многословно, а с допустимой степенью сжатости, без лишних деталей. Краткость информации незаменима в справочниках, энциклопедиях, инструкциях. Логичность, компактность, удобная форма представления облегчает понимание и усвоение информации.

Так и не нашли ответ
на свой вопрос?

Просто напиши с чем тебе
нужна помощь

Виды информации и её свойства

Информация informatio — осведомление, разъяснение, изложение) — в широком смысле абстрактное понятие, имеющее множество значений, в зависимости от контекста. В узком смысле этого слова — сведения (сообщения, данные) независимо от формы их представления. В настоящее время не существует единого определения термина информация. С точки зрения различных областей знания, данное понятие описывается своим специфическим набором признаков. Информация — совокупность данных, зафиксированных на материальном носителе, сохранённых и распространённых во времени и пространстве.

В то же время никак нельзя называть произведения искусства информацией. Эстетическое, культурологическое понимание термина информация в корне отличается от понимания информации в кибернетике, физике, биологии и т. д.

Органами чувств (приемниками информации) мы принимаем информацию об окружающем мире, в том числе и информацию о произведениях искусства. Но произведения искусства в связи с этим не становятся чистой информацией. Это мы при помощи органов чувств, видя произведения искусства, воспринимаем информацию о произведениях искусств.

Понятие информации, классификация и свойства [ править ]

В литературе можно найти достаточно много определений термина «информация», отражающих различные подходы к толкованию этого понятия. В «Федеральный закон Российской Федерации от 27 июля 2006 г. N 149-ФЗ Об информации, технологиях и о защите информации» (http://www.rg.ru/2006/07/29/informacia-dok.html) дается следующее определение этого термина: «информация — сведения (сообщения, данные) независимо от формы их представления». Толковый словарь русского языка Ожегова приводит 2 определения слова «информация»:

  1. Сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством.
  2. Сообщения, осведомляющие о положении дел, о состоянии чего-нибудь. (Научно-техническая и газетная информации, средства массовой информации — печать, радио, телевидение, кино).

Информация и ее свойства являются объектом исследования целого ряда научных дисциплин, таких как теория информации (математическая теория систем передачи информации), кибернетика (наука о связи и управлении в машинах и животных, а также в обществе и человеческих существах), семиотика (наука о знаках и знаковых системах), теория массовой коммуникации (исследование средств массовой информации и их влияния на общество), информатика (изучение процессов сбора, преобразования, хранения, защиты, поиска и передачи всех видов информации и средств их автоматизированной обработки), информодинамика (наука об открытых информационных системах), информациология (наука о получении, сохранении и передаче информации для различных множеств объектов) и т. д.

В информатике наиболее часто используется следующее определение этого термина:

Информация — осознанные сведения об окружающем мире, которые являются объектом хранения, преобразования, передачи и использования.

Сведения — это знания, выраженные в сигналах, сообщениях, известиях, уведомлениях и т. д. Каждого человека в мире окружает море информации различных видов. Несмотря на то, что единого строгого определения информации не существует, имеется возможность описать этот термин через характерные свойства: дуализм(двойственность), достоверность, полнота, адекватность, доступность и актуальность.

Информация содержится везде. Дерево содержит собственную генетическую информацию, и только благодаря этой информации от семечки берёзы вырастает только берёза. Для деревьев источником информации является воздух, именно по состоянию воздуха дерево может определить время распускания почек. Перелётные птицы знают свой маршрут перелёта, и каждая стая идёт только своим заданным в генах маршрутом.

Стремление зафиксировать, сохранить надолго свое восприятие информации было всегда свойственно человеку. Мозг человека хранит множество информации и использует для хранения её свои способы, основа которых — двоичный код, как и у компьютеров. Человек всегда стремился иметь возможность поделиться своей информацией с другими людьми и найти надёжные средства для её передачи и долговременного хранения. Для этого в настоящее время изобретено множество способов хранения информации на внешних (относительно мозга человека) носителях и её передачи на огромные расстояния.

Основные виды информации по её форме представления, способам её кодирования и хранения, что имеет наибольшее значение для информатики, это:

  • графическая или изобразительная — первый вид, для которого был реализован способ хранения информации об окружающем мире в виде наскальных рисунков, а позднее в виде картин, фотографий, схем, чертежей на бумаге, холсте, мраморе и др. материалах, изображающих картины реального мира;
  • звуковая (акустическая) — мир вокруг нас полон звуков и задача их хранения и тиражирования была решена с изобретением звукозаписывающих устройств в 1877 г. (см., например, историю звукозаписи на сайте — http://radiomuseum.ur.ru/index9.html); её разновидностью является музыкальная информация — для этого вида был изобретен способ кодирования с использованием специальных символов, что делает возможным хранение её аналогично графической информации;
  • текстовая — способ кодирования речи человека специальными символами — буквами, причем разные народы имеют разные языки и используют различные наборы букв для отображения речи; особенно большое значение этот способ приобрел после изобретения бумаги и книгопечатания;
  • числовая — количественная мера объектов и их свойств в окружающем мире; особенно большое значение приобрела с развитием торговли, экономики и денежного обмена; аналогично текстовой информации для её отображения используется метод кодирования специальными символами — цифрами, причем системы кодирования (счисления) могут быть разными;
  • видеоинформация — способ сохранения «живых» картин окружающего мира, появившийся с изобретением кино.

Существуют также виды информации, для которых до сих пор не изобретено способов их кодирования и хранения — это тактильная информация, передаваемая ощущениями, органолептическая, передаваемая запахами и вкусами и др.

Для передачи информации на большие расстояния первоначально использовались кодированные световые сигналы, с изобретением электричества — передача закодированного определенным образом сигнала по проводам, позднее — с использованием радиоволн.

Создателем общей теории информации и основоположником цифровой связи считается Клод Шеннон (Claude Shannon). Всемирную известность ему принес фундаментальный труд 1948 года — «Математическая теория связи» (A Mathematical Theory of Communication), в котором впервые обосновывается возможность применения двоичного кода для передачи информации.

С появлением компьютеров (или, как их вначале называли в нашей стране, ЭВМ — электронные вычислительные машины) вначале появилось средство для обработки числовой информации. Однако в дальнейшем, особенно после широкого распространения персональных компьютеров (ПК), компьютеры стали использоваться для хранения, обработки, передачи и поиска текстовой, числовой, изобразительной, звуковой и видеоинформации. С момента появления первых персональных компьютеров — ПК (80-е годы 20 века) — до 80 % их рабочего времени посвящено работе с текстовой информацией.

Хранение информации при использовании компьютеров осуществляется на магнитных дисках или лентах, на лазерных дисках (CD и DVD), специальных устройствах энергонезависимой памяти (флэш-память и пр.). Эти методы постоянно совершенствуются, изобретаются и носители информации. Обработку информации (воспроизведение, преобразование, передача, запись на внешние носители) выполняет процессор компьютера. С помощью компьютера возможно создание и хранение новой информации любых видов, для чего служат специальные программы, используемые на компьютерах, и устройства ввода информации.

Особым видом информации в настоящее время можно считать информацию, представленную в глобальной сети Интернет. Здесь используются особые приемы хранения, обработки, поиска и передачи распределенной информации больших объемов и особые способы работы с различными видами информации. Постоянно совершенствуется программное обеспечение, обеспечивающее коллективную работу с информацией всех видов.

Свойства информации [ править ]

С точки зрения информатики наиболее важными представляются следующие общие качественные свойства: достоверность, полнота, точность, актуальность, полезность, ценность, своевременность, понятность, доступность, краткость и пр.

  1. Объективность информации. Информация в любом своём проявлении объективна, она отображает объективную действительность. Например фраза «На улице тёплая погода» означает, что человек её произнесший считает погоду на улице тёплой, т.е. информацией в данном случае будет являться то, что определённый человек произнёс фразу следующего содержания.
  2. Достоверность информации. Информация достоверна, если она отражает истинное положение дел. Достоверная информация помогает принять нам правильное решение. Недостоверной информация может быть по следующим причинам:
    • преднамеренное искажение (дезинформация) или непреднамеренное искажение субъективного свойства;
    • искажение в результате воздействия помех («испорченный телефон») и недостаточно точных средств ее фиксации.
  3. Полнота информации. Информацию можно назвать полной, если ее достаточно для понимания и принятия решений. Неполная информация может привести к ошибочному выводу или решению.
  4. Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т. п.
  5. Актуальность информации — важность для настоящего времени, злободневность, насущность. Только вовремя полученная информация может быть полезна.
  6. Полезность (ценность) информации. Полезность может быть оценена применительно к нуждам конкретных ее потребителей и оценивается по тем задачам, которые можно решить с ее помощью.

Самая ценная информация — полезная. При этом следует учитывать, что и недостоверная информация (например, художественная литература), имеет большую значимость для человека. В художественной литературе полезная информация представлена неявным образом. Социальная (общественная) информация обладает еще и дополнительными свойствами:

  • имеет семантический (смысловой) характер, то есть понятный, так как именно в понятиях обобщаются наиболее существенные признаки предметов, процессов и явлений окружающего мира.
  • имеет языковую природу (кроме некоторых видов эстетической информации, например изобразительного искусства). Одно и то же содержание может быть выражено на разных естественных (разговорных) языках, записано в виде математических формул и т. д.

С течением времени количество информации растет, информация накапливается, происходит ее систематизация, оценка и обобщение. Это свойство назвали ростом и кумулированием информации. (Кумуляция — от лат. cumulatio — увеличение, скопление). Старение информации заключается в уменьшении ее ценности с течением времени. Старит информацию не само время, а появление новой информации, которая уточняет, дополняет или отвергает полностью или частично более раннюю. Научно-техническая информация стареет быстрее, эстетическая (произведения искусства) — медленнее.

Читайте также:  Лазерная коррекция зрения что можно вернуть

Логичность, компактность, удобная форма представления облегчает понимание и усвоение информации.

Понятие информации

Термин «информация» происходит от латинского слова «informatio», что означает сведения, разъяснения, изложение. Несмотря на широкое распространение этого термина, понятие информации является одним из самых дискуссионных в науке.

В «Большом энциклопедическом словаре» информация определяется как «общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, автоматом и автоматом обмен сигналами в животном и растительном мире; передачу признаков от клетки к клетке, от организма к организму (генетическая информация). В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация, но пока это понятие во многом остается интуитивным и получает различные смысловые наполнения в различных отраслях человеческой деятельности:

· в обиходе информацией называют любые данные или сведения, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п. «Информировать» в этом смысле означает «сообщить нечто, неизвестное раньше»;

· в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов;

· в кибернетике под информацией понимает ту часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы (Н. Винер).

Клод Шеннон, американский учёный, заложивший основы теории информации — науки, изучающей процессы, связанные с передачей, приёмом, преобразованием и хранением информации, — рассматривает информацию как снятую неопределенность наших знаний о чем-то.

Приведем еще несколько определений:

  • Информация — это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний (Н.В. Макарова);
  • Информация — это отрицание энтропии (Леон Бриллюэн);
  • Информация — это мера сложности структур (Моль);
  • Информация — это отраженное разнообразие (Урсул);
  • Информация — это содержание процесса отражения (Тузов);
  • Информация — это вероятность выбора (Яглом).

В «Философском энциклопедическом словаре» приводятся четыре значения этого слова:

  1. сообщение, осведомление о положении дел, сведения о чем-либо, передаваемые людьми;
  2. уменьшаемая, снимаемая неопределенность в результате получения сообщения;
  3. сообщение, неразрывно связанное с управлением, сигналы в единстве синтетической, семантической и прагматической характеристик;
  4. отражение разнообразия в любых объектах, процессах неживой и живой природы.

Современное научное представление об информации очень точно сформулировал Норберт Винер, «отец» кибернетики. А именно:

Информация — это обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспособления к нему наших чувств.

Люди обмениваются информацией в форме сообщений. Сообщение — это форма представления информации в виде речи, текстов, жестов, взглядов, изображений, цифровых данных, графиков, таблиц и т.п.

Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертёж, радиопередача и т.п.) может содержать разное количество информации для разных людей — в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему.

«Информация – это особая совокупность сведений, первичным источником которых является опыт» (А.А.Красовский, Г.С.Поспелов, 1961г.). Так, сообщение, составленное на японском языке, не несёт никакой новой информации человеку, не знающему этого языка, но может быть высокоинформативным для человека, владеющего японским. Никакой новой информации не содержит и сообщение, изложенное на знакомом языке, если его содержание непонятно или уже известно.

Информация есть характеристика не сообщения, а соотношения между сообщением и его потребителем. Без наличия потребителя, хотя бы потенциального, говорить об информации бессмысленно.

Эта точка зрения отражается в таком определении:

Информация – это новые сведения, позволяющие улучшить процессы преобразования вещества, энергии и самой информации.

В случаях, когда говорят об автоматизированной работе с информацией посредством каких-либо технических устройств, обычно в первую очередь интересуются не содержанием сообщения, а тем, сколько символов это сообщение содержит.

Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения.

После того, как американский ученый и инженер Клод Шеннон в 1948г. опубликовал работу об основах математической теории связи – теории информации, она нашла применение почти во всех областях науки, где играет роль передача информации в самом общем смысле этого слова. Примерно в те же годы появились первые ЭВМ, ставшие позднее универсальным инструментом для обработки информации. Постепенно учение об информации проникло из кибернетики и информатики в физику, химию, биологию, философию, логику и т.д. Понятие «информация» превратилось в фундаментальное понятие науки и рассматривается под различными углами зрения в многочисленных трудах ученых.

Есть ли между всеми определениями какие-либо точки соприкосновения? Имеем ли мы дело с одним или несколькими понятиями?

В первоначальном и наиболее узком смысле информация – атрибут разумных существ, людей. Это какие-либо сведения, данные, факты, которые, будучи получены из опыта, наблюдения или путем размышления, зафиксированы в материальной форме для сообщения другому существу или самому себе. При таком понимании любая информация с неизбежностью содержит два компонента – содержательный и материальный. То есть, во-1-х, она должна быть понятна тем, для кого предназначена (содержательный компонент), во-2-х, представлена на том или ином материальном носителе, например, бумаге (материальный компонент).

Ясно, что одну и ту же информацию можно представить совершенно по-разному (например, на русском или на английском языке) и на разных носителях (в книге, на магнитном диске).

Если оставить в стороне смысловой компонент информации и абстрагироваться от любого конкретного материального ее носителя, то все еще остается нечто, что может быть предметом исследования. Это формальный компонент. Он включает идею кодирования как таковую, т.е. безотносительно к смыслу кодируемого и независимо от физических свойств носителя информации. Формальный компонент принимает во внимание лишь количественные, частотно-вероятные и структурные свойства информации.

Формальные свойства информации можно исследовать математическими методами – так родилась теория информации. Причем, результаты этих исследований равно применимы к любым процессам и явлениям, в том числе и не относящимся к информационным в узком смысле этого слова, лишь бы они обладали формальными свойствами информационных процессов. Поэтому совершенно логично, что сегодня слово «информация» имеет гораздо более широкое значение. Некоторые исследователи даже связывают понятие информации с разнообразием в природе и обществе, с упорядоченностью вообще.

Информация может существовать в виде:

  • текстов, рисунков, чертежей, фотографий;
  • световых или звуковых сигналов;
  • радиоволн;
  • электрических и нервных импульсов;
  • магнитных записей;
  • жестов и мимики;
  • запахов и вкусовых ощущений;
  • хромосом, посредством которых передаются по наследству признаки и свойства организмов и т.д.

Предметы, процессы, явления материального или нематериального свойства, рассматриваемые с точки зрения их информационных свойств, называются информационными объектами.

С практической точки зрения информация всегда представляется в виде сообщения. Как показано на рисунке 1, информационное сообщение связано с источником сообщения, получателем сообщения и каналом связи.

физический семантический прагматический фильтр фильтр фильтр
Рис. 1

Информация передаётся в форме сообщений от некоторого источника информации к её приёмнику посредством канала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приёмнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением.

1. Cообщение, содержащее информацию о прогнозе погоды, передаётся приёмнику (телезрителю) от источника — специалиста-метеоролога посредством канала связи — телевизионной передающей аппаратуры и телевизора.

2. Живое существо своими органами чувств (глаз, ухо, кожа, язык и т.д.) воспринимает информацию из внешнего мира, перерабатывает её в определенную последовательность нервных импульсов, передает импульсы по нервным волокнам, хранит в памяти в виде состояния нейронных структур мозга, воспроизводит в виде звуковых сигналов, движений и т.п., использует в процессе своей жизнедеятельности.

Передача информации по каналам связи часто сопровождается воздействием помех, вызывающих искажение и потерю информации.

С понятием информации связаны такие понятия, как сигнал, сообщение и данные.

Сигнал (от латинского signum — знак) представляет собой любой процесс, несущий информацию.

Различают две формы представления информации — непрерывную и дискретную. Поскольку носителями информации являются сигналы, то в качестве последних могут использоваться физические процессы различной природы. Например, процесс протекания электрического тока в цепи, процесс механического перемещения тела, процесс распространения света и т.д. Информация представляется (отражается) значением одного или нескольких параметров физического процесса (сигнала), либо комбинацией нескольких параметров.

Сигнал называется непрерывным, если его параметр в заданных пределах может принимать любые промежуточные значения. Сигнал называется дискретным, если его параметр в заданных пределах может принимать отдельные фиксированные значения.

Сообщение это информация, представленная в определенной форме и предназначенная для передачи.

Данные это информация, представленная в формализованном виде и предназначенная для обработки ее техническими средствами, например, ЭВМ.

Понятие данные более общее чем информатика, в нем смысловые свойства сообщения как бы отступают на второй план. Когда нет необходимости подчеркнуть разницу между понятиями данные (вся совокупность сведений) и информация (новые полезные сведения) эти слова используют как синонимы.

В соответствии с этим для оценки количества информации используются разные единицы.

При передаче информации важно обратить внимание на то, какое количество информации пройдет через передающую систему. Ведь информацию можно измерить количественно, подсчитать. И поступают при подобных вычислениях самым обычным путем: абстрагируются от смысла сообщения, как отрешаются от конкретности в привычных всем нам арифметических действиях (как от сложения двух яблок и трех яблок переходят к сложению чисел вообще: 2+3).

1.2.2 Свойства информации

К важнейшим свойствам информации относятся:

Адекватность информации может выражаться в трех формах: семантической, синтаксичес­кой, прагматической.

Синтаксическая адекватность. Она отображает формально-структурные характерис­тики информации и не затрагивает ее смыслового содержания. На синтаксическом уровне учитываются тип носителя и способ представления информации, скорость передачи и обра­ботки, размеры кодов представления информации, надежность и точность преобразования этих кодов и т.п. Информацию, рассматриваемую только с синтаксических позиций, обыч­но называют данными, так как при этом не имеет значения смысловая сторона. Эта форма способствует восприятию внешних структурных характеристик, т.е. синтаксической сторо­ны информации.

Семантическая (смысловая) адекватность. Эта форма определяет степень соответ­ствия образа объекта и самого объекта. Семантический аспект предполагает учет смыслово­го содержания информации. На этом уровне анализируются те сведения, которые отражает информация, рассматриваются смысловые связи. В информатике устанавливаются смысло­вые связи между кодами представления информации. Эта форма служит для формирования понятий и представлений, выявления смысла, содержания информации и ее обобщения.

Прагматическая (потребительская) адекватность. Она отражает отношение инфор­мации и ее потребителя, соответствие информации цели управления, которая на ее основе реализуется. Проявляются прагматические свойства информации только при наличии един­ства информации (объекта), пользователя и цели управления. Можно сказать, что прагматическая адекватность определяет полезность информации (ценность) для достижения пользователем по­ставленной цели. С этой точки зрения анализируются по­требительские свойства информации. Эта форма адекватности непосредственно связана с практическим использованием информации, с соответствием ее целевой функции деятель­ности системы.

Информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений.

Достоверная информация со временем может стать недостоверной, так как она обладает свойством устаревать, то есть перестаёт отражать истинное положение дел.

Информация полна, если её достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений или может повлечь ошибки.

Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т.п. Для информации, отображаемой цифровым кодом, известны четыре классификационных понятия точности:

  • формальная точность, измеряемая значением единицы младшего разряда числа;
  • реальная точность, определяемая значением единицы последнего разряда числа, вер­ность которого гарантируется;
  • максимальная точность, которую можно получить в конкретных условиях функциони­рования системы;
  • необходимая точность, определяемая функциональным назначением показателя.

Ценность информации зависит от того, насколько она важна для решения задачи, а также от того, насколько в дальнейшем она найдёт применение в каких-либо видах деятельности человека.

Только своевременно полученная информация может принести ожидаемую пользу. Одинаково нежелательны как преждевременная подача информации (когда она ещё не может быть усвоена), так и её задержка. Свойство актуальности информации особо важную роль играет в ситуациях, которые очень быстро изменяются, например, торги на фондовой или валютной бирже.

Если ценная и своевременная информация выражена непонятным образом, она может стать бесполезной.

Информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация.

Информация должна преподноситься в доступной (по уровню восприятия) форме. Поэтому одни и те же вопросы по-разному излагаются в школьных учебниках и научных изданиях.

Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных деталей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, учебниках, всевозможных инструкциях.

1.2.1. Информатизация и компьютеризация общества. Информационные ресурсы.

Информатизация общества — организованный социально-экономический и научно-технический процесс создания оптимальных условий для удовлетворения информационных потребностей и реализации прав граждан, органов государственной власти, органов местного самоуправления организаций, общественных объединений на основе формирования и использования информационных ресурсов.

Информатизация общества является одной их закономерностей современного социального прогресса. Этот термин все настойчивее вытесняет широко используемый до недавнего времени термин «компьютеризация общества». При внешней похожести этих понятий они имеют существенные различия.

Компьютеризация общества — массовое внедрение компьютерной техники во все области жизни людей. Основное внимание уделяется развитию и внедрению технической базы компьютеров, обеспечивающих оперативное получение результатов переработки информации и ее накопление.

При информатизации общества основное внимание уделяется комплексу мер, направленных на обеспечение полного использования достоверного, исчерпывающего и своевременного знания во всех видах человеческой деятельности.

Цель информатизации — улучшение качества жизни людей за счет увеличения производительности и облегчения условий их труда.

Таким образом, «информатизация общества» является более широким понятием, чем » компьютеризация общества», и направлена на скорейшее овладение информацией для удовлетворения своих потребностей.

Информатизация — это сложный социальный процесс, связанный со значительными изменениями в образе жизни населения. Он требует серьёзных усилий на многих направлениях, включая ликвидацию компьютерной неграмотности, формирование культуры использования новых информационных технологий и др.

Одной из важнейших задач теории информации является изучение природы и свойств информации, создание методов ее обработки, в частности преобразования самой различной современной информации в программы для вычислительной техники, с помощью которых происходит автоматизация умственной работы — своеобразное усиление интеллекта, а значит, развитие интеллектуальных ресурсов общества.

Уровень развития информационного пространства решающим образом влияет на экономику, обороноспособность и политику. От этого уровня в значительной степени зависит поведение людей, формирование общественно-политических движений и социальная стабильность. Целями информатизации во всем мире и, в том числе, в России являются наиболее полное удовлетворение информационных потребностей общества во всех сферах деятельности.

С конца 80-х годов ХХ века стали говорить о переходе от материального общества к информационному. Признаками такого общества являются:

  • Информация стала стратегическим ресурсом наряду с энергетическими, природными и трудовыми ресурсами;
  • Резко возросла доля занятых в сфере информационных технологий (более 50% занятого населения);
  • Изменилась структура потребительских расходов. Если раньше большую часть доходов население тратило на приобретение одежды, автомобилей (товары «старой экономики»), то теперь стремительно растет доля высокотехнологичных товаров, которые экономят время: телефон, связь, оплата услуг по финансовым операциям (фонды, биржа), ПК, развлечение и отдых, кабельное телевидение. Ежегодный рост расходов населения на товары старой экономики составил в 1999 году приблизительно 0,9%, а на товары новой экономики – 12,5%. В 2000 году мировой рынок информационных технологий (по данным ЮНЕСКО) составил около 4 трлн долларов, а автомобильный – лишь 0,5 трлн. долларов.
Читайте также:  Что такое лазерная коррекция зрения при глаукоме

В период перехода к информационному обществу необходимо подготовить человека к быстрому восприятию и обработке больших объемов информации, овладению им современными средствами, методами и технологий работы. Новые условия работы порождают зависимость информированности одного человека от информации, приобретенной другими людьми. Поэтому уже недостаточно уметь самостоятельно осваивать и накапливать информацию, надо научиться такой технологии работы с информацией, когда подготавливаются и принимаются решения на основе коллективного знания. Это говорит о том, что человек должен иметь определенный уровень культуры по обращению с информацией. Для отражения этого факта был введен термин информационная культура.

Информационная культура – умение целенаправленно работать с информацией и использовать для ее получения, обработки и передачи современные технические средства, методы и компьютерные технологии. Информационная культура является продуктом разнообразных творческих способностей человека и проявляется в следующих аспектах:

  • в конкретных навыках по использованию технических средств (от телефона до персонального компьютера и компьютерных сетей;
  • в способности использовать в своей деятельности конкретные программные продукты;
  • в умении извлекать информацию из различных источников: периодической печати, электронных коммуникаций, представлять ее в понятном виде и уметь эффективно использовать;
  • во владении основами аналитической обработки информации;
  • в знании особенностей информационных потоков в своей предметной области.

Информационные ресурсы — это идеи человечества и указания по их реализации, накопленные в форме, позволяющей их воспроизводство.

Это книги, статьи, патенты, диссертации, научно-исследовательская и опытно-конструкторская документация, технические переводы, данные о передовом производственном опыте и др.

Информация – это специфический ресурс. Во-1-х, со временем ее количество не уменьшается, а наоборот увеличивается, причем, информационные ресурсы (в отличие от всех других видов ресурсов — трудовых, энергетических, минеральных и т.д.) тем быстрее растут, чем больше их расходуют.

Появляется возможность накапливать опыт, систематизировать его и таким образом обеспечивать принятие эффективных решений. Во-2-х, информация является одновременно и предметом и продуктом труда. Исходные данные о фактическом состоянии, например, объекта управления – предмет труда, а различные выходные документы, отчеты, справки, аналитические обзоры – продукт труда.

1.2.2. Информационные процессы, технологии и системы

· создавать; · передавать; · воспринимать; · иcпользовать; · запоминать; · принимать; · копировать; · формализовать; · распространять; · преобразовывать; · комбинировать; · обрабатывать; · делить на части; · упрощать; · собирать; · хранить; · искать; · измерять; · разрушать; · и др. ·

Все эти процессы, связанные с определенными операциями над информацией, называются информационными процессами.

Информационные процессы (сбор, обработка и передача информации) всегда играли важную роль в жизни общества. В ходе эволюции человечества просматривается устойчивая тенденция к автоматизации этих процессов.

Сбор информации – это деятельность субъекта, в ходе которой он получает сведения об интересующем его объекте. Сбор информации может производиться или человеком или с помощью технических средств и систем.

Обмен информацией – это процесс, в ходе которого источник информации ее передает, а получатель — принимает. Обмен информации осуществляется с помощью сигналов, являющихся ее материальным носителем. Средства и способы установления и поддержания информационного обмена между различными системами (например, компьютер-пользователь) называется интерфейсом (англ. interface — внешнее лицо)

Принятую информацию получатель может использовать неоднократно. С этой целью он должен зафиксировать ее на материальном носителе (магнитном диске, фото, кино и др.). Процесс формирования исходного, несистематизированного массива информации называется накоплением информации.

Хранение информации — это процесс поддержания исходной информации в виде, обеспечивающем выдачу данных по запросам конечных пользователей в установленные сроки. В отличие от накопления, этот процесс связан с систематизацией данных, выбором определенного способа их организации с целью быстрого нахождения (выбора) необходимых данных.

Обработка информации – это упорядоченный процесс ее преобразования в соответствии с алгоритмом решения задачи, получение одних информационных объектов из других информационных объектов путем выполнения некоторых алгоритмов.

Обработка является одной из основных операций, выполняемых над информацией, и главным средством увеличения объёма и разнообразия информации.

Совокупность методов и устройств, используемых людьми для обработки информации, называют информационной технологией.

Средства обработки информации — это всевозможные устройства и системы, созданные человечеством, и в первую очередь, компьютер — универсальная машина для обработки информации.

Компьютеры обрабатывают информацию путем выполнения некоторых алгоритмов.

Живые организмы и растения обрабатывают информацию с помощью своих органов и систем.

Человечество занималось обработкой информации тысячи лет. Существует мнение, что мир пережил несколько информационных революций.

Первая информационная революция связана с изобретением и освоением человеческого языка, который, точнее устная речь, выделила человека из мира животных. Это позволило человеку хранить, передавать, совершенствовать, увеличивать приобретенную информацию.

Вторая информационная революция заключалась в изобретении письменности. Прежде всего, резко возросли (по сравнению с предыдущим этапом) возможности по хранению информации. Человек получил искусственную внешнюю память. Организация почтовых служб позволила использовать письменность и как средство для передачи информации. Кроме того, возникновение письменности было необходимым условием для начала развития наук (вспомним Древнюю Грецию, например). С этим же этапом, по всей видимости, связано и возникновение понятия натуральное число. Все народы, обладавшие письменностью, владели понятием числа и пользовались той или иной системой счисления.

Все-таки, зафиксированное в письменных текстах знание было ограниченным, и, следовательно, мало доступным. Так было до изобретения книгопечатания.

Что обосновало третью информационную революцию. Здесь наиболее очевидна связь информации и технологии. Книгопечатание можно смело назвать первой информационной технологией. Воспроизведение информации было поставлено на поток, на промышленную основу. По сравнению с предыдущим этот этап не столько увеличил возможности по хранению (хотя и здесь был выигрыш: письменный источник — часто один-единственный экземпляр, печатная книга — целый тираж экземпляров, а следовательно, и малая вероятность потери информации при хранении (вспомним «Слово о полку Игореве»)), сколько повысил доступность информации и точность ее воспроизведения. Механизмом этой революции был печатный станок, который удешевил книгу и сделал информацию более доступной.

Четвертая революция, плавно переходящая в пятую, связана с созданием современных информационных технологий. Этот этап связан с успехами точных наук (прежде всего математики и физики) и характеризуется возникновением таких мощных средств связи, как телеграф (1794г. – первый оптический телеграф, 1841г. – первый электромагнитный телеграф), телефон (1876г.) и радио (1895г.), к которым по завершению этапа добавилось и телевидение (1921г.). Кроме средств связи появились новые возможности по получению и хранению информации — фотография и кино. К ним также очень важно добавить разработку методов записи информации на магнитные носители (магнитные ленты, диски). Но самым поразительным было создание современных компьютеров и средств телекоммуникаций.

В настоящее время термин «информационная технология» употребляется в связи с использованием компьютеров для обработки информации. Информационные технологии охватывают всю вычислительную технику и технику связи и, отчасти, — бытовую электронику, телевидение и радиовещание.

Они находят применение в промышленности, торговле, управлении, банковской системе, образовании, здравоохранении, медицине и науке, транспорте и связи, сельском хозяйстве, системе социального обеспечения, служат подспорьем людям различных профессий и домохозяйкам.

Народы развитых стран осознают, что совершенствование информационных технологий представляет самую важную, хотя дорогостоящую и трудную задачу.

В настоящее время создание крупномасштабных информационно-технологических систем является экономически возможным, и это обусловливает появление национальных исследовательских и образовательных программ, призванных стимулировать их разработку.

После решения задачи обработки информации результат должен быть выдан конечным пользователям в требуемом виде. Эта операция реализуется в ходе решения задачи выдачи информации. Выдача информации, как правило, производится с помощью внешних устройств вычислительной техники в виде текстов, таблиц, графиков и т.д.

Стержнем любой информационной технологии является выбор и реализация наиболее рационального информационного процесса, который можно определить как совокупность процедур по преобразованию и обработке информации.

В свою очередь информационной процедурой принято считать совокупность однородных операций, воздействующих определенным образом на информацию. Основными информационными процедурами являются: регистрация, сбор, передача, кодирование, хранение и обработка информации.

Реализация любой задачи конкретного пользователя требует создания системы информационного обслуживания, которую чаще называют информационной системой.

Информационная система (ИС) — это совокупность различных средств и методов, предназначенных для сбора, подготовки, хранения, обработки и выдачи информации в интересах пользователя.

Любая информационная система создается с целью повышения эффективности того или иного вида деятельности. Рост объемов хранимой и обрабатываемой информации объективно обусловил развитие технических средств, необходимых для реализации информационных процедур. Появление ПЭВМ позволило реализовать автоматизированные ИС.

В автоматизированной информационной системе (АИС) ее основные компоненты приводятся в действие автоматическим устройством, алгоритмизация которого поддается математическому описанию.

АИС, как правило, включает в себя следующие компоненты:

языковые средства и правила, используемые для отбора и подготовки информации к вводу в ЭВМ, для отображения картины реального мира в модель данных, для работы пользователя с системой, для предоставления пользователю выдаваемой системой информации;

  • информационный фонд системы;
  • способы и методы организации информационных массивов и всех процессов обработки информации в системе;
  • алгоритмы функционирования системы, т.е. алгоритмы всех процедур по созданию, ведению и обработке информационных массивов, алгоритмы формирования ответов на запросы и пр.;
  • программное обеспечение системы;
  • комплекс технических средств, функционирующих в системе;
  • персонал, обслуживающий информационные системы.

АИС классифицируются по характеру обрабатываемой информации и целевой функции.

По характеру обрабатываемой информации различают документальные, фактографические и интеллектуальные АИС. В документальных ИС объектами обработки, хранения и поиска являются определенные документы (патенты, законы, статьи, книги и другие информационные материалы). В фактографических ИС хранимая и обрабатываемая информация представляет собой конкретные сведения, факты (параметры и характеристики объектов, сведения технико-экономического характера, результаты измерений, статистические данные и т.д.). в интеллектуальных АИС объектом хранения являются знания в той или иной предметной области.

Целевые функции определяются назначением данной системы. В зависимости от целей, стоящих перед АИС, можно выделить информационно-справочные, управленческие, информационно-расчетные, информационно-логические и экспертные системы. Практически большинство целевых функций не нуждается в раскрытии их назначения и области применения.

Рассмотрим экспертную систему, под которой понимают объединяющую возможность компьютера со знаниями и опытом эксперта в такой форме, что система может предложить разумный совет или осуществить разумное решение поставленной задачи. Дополнительной характеристикой такой системы является ее способность пояснить, по требованию пользователя, ход своих рассуждений в понятной для него форме.

Во всех системах существуют понятные и доступные средства общения пользователя с системой, в том числе и пользователей не специалистов в области вычислительной техники. С помощью этих средств пользователь формулирует свои запросы, вводит их в систему и воспринимает выдаваемую ему информацию.

В практической реализации АИС — это человеко-машинная система, функционирование которой предполагает наличие баз и банков данных, технических средств, языков запросов и ответов, пользователей данной системы и персонала, обслуживающего ее работу.

Банк данных — это система специальным образом организованных данных (баз данных), программных, технических, языковых, организационно-методических средств, предназначенных для обеспечения централизованного накопления и коллективного многоцелевого использования данных.

Согласно ст. 1 закона «О правовой охране программ и ЭВМ и баз данных» «база данных — это объективная форма представления и организации совокупности данных, систематизированных таким образом, чтобы эти данные могли быть найдены и обработаны с помощью ЭВМ».

1.2.3. Количество информации

Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения сообщения в виде данного сигнала. Эту меру неопределенности в теории информации называют энтропией. Если в результате получения сообщения достигается полная ясность в каком-то вопросе, говорят, что была получена полная или исчерпывающая информация и необходимости в получении дополнительной информации нет. И, наоборот, если после получения сообщения неопределенность осталась прежней, значит, информации получено не было (нулевая информация).

Приведенные рассуждения показывают, что между понятиями информация, неопределенность и возможность выбора существует тесная связь. Так, любая неопределенность предполагает возможность выбора, а любая информация, уменьшая неопределенность, уменьшает и возможность выбора. При полной информации выбора нет. Частичная информация уменьшает число вариантов выбора, сокращая тем самым неопределенность.

Возможно ли объективно измерить количество информации? Важнейшим результатом теории информации является следующий вывод: в определенных, весьма широких условиях можно пренебречь качественными особенностями информации, выразить её количество числом, а также сравнить количество информации, содержащейся в различных группах данных.

В настоящее время получили распространение подходы к определению понятия «количество информации», основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле её новизны или, иначе, уменьшения неопределённости наших знаний об объекте. Эти подходы используют математические понятия вероятности и логарифма.

Пример. Человек бросает монету и наблюдает, какой стороной она упадет. Обе стороны монеты равноправны, поэтому одинаково вероятно, что выпадет одна или другая сторона. Такой ситуации приписывается начальная неопределенность, характеризуемая двумя возможностями. После того, как монета упадет, достигается полная ясность и неопределенность исчезает (становится равной нулю).

Приведенный пример относится к группе событий, применительно к которым может быть поставлен вопрос типа «да-нeт». Количество информации, которое можно получить при ответе на вопрос типа «да-нет», называется битом (англ, bit — сокращенное от binary digit — двоичная единица). Бит — минимальная единица количества информации, ибо получить информацию меньшую, чем 1 бит, невозможно. При получении информации в 1 бит неопределенность уменьшается в 2 раза. Таким образом, каждое бросание монеты дает нам информацию в 1 бит.

В качестве других моделей получения такого же количества информации могут выступать электрическая лампочка, двухпозиционный выключатель, магнитный сердечник, диод и т.п. Включенное состояние этих объектов обычно обозначают цифрой 1, а выключенное — цифрой 0.

Рассмотрим систему из двух электрических лампочек, которые независимо друг от друга могут быть включены или выключены. Для такой системы возможны следующие состояния:

Лампа А
Лампа В

Чтобы получить полную информацию о состоянии системы, необходимо задать два вопроса типа «да-нет» — по лампочке А и лампочке В соответственно. В этом случае количество информации, содержащейся в данной системе, определяется уже в 2 бита, а число возможных состояний системы — 4. Если взять три лампочки, то необходимо задать уже три вопроса и получить 3 бита информации. Количество состояний такой системы равно 8 и т.д.

Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N.

Формула Хартли: I = log2N

Ту же формулу можно представить иначе:

где i— количество информации в битах;

N-число возможных состояний.

Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log2100 = 6,644. Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации.

Приведем другие примеры равновероятных сообщений:

1. при бросании монеты: «выпала решка», «выпал орел»;

2. на странице книги: «количество букв чётное», «количество букв нечётное».

Определим теперь, являются ли равновероятными сообщения «первой выйдет из дверей здания женщина» и «первым выйдет из дверей здания мужчина». Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.

Читайте также:  Лазерная коррекция зрения до или после родов

Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Формула Шеннона:

где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.

Легко заметить, что если вероятности p1, . pN равны, то каждая из них равна 1 / N, и формула Шеннона превращается в формулу Хартли.

В качестве единицы информации Клод Шеннон предложил принять один бит (англ. bitbinary digit — двоичная цифра).

Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений (типа «орел»—»решка», «чет»—»нечет» и т.п.).

В вычислительной технике битом называют наименьшую «порцию» памяти компьютера, необходимую для хранения одного из двух знаков «0» и «1», используемых для внутримашинного представления данных и команд.

Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=2 8 ).

Широко используются также ещё более крупные производные единицы информации:

· 1 Килобайт (Кбайт) = 1024 байт = 2 10 байт,

· 1 Мегабайт (Мбайт) = 1024 Кбайт = 2 20 байт,

· 1 Гигабайт (Гбайт) = 1024 Мбайт = 2 30 байт.

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:

· 1 Терабайт (Тбайт) = 1024 Гбайт = 2 40 байт,

· 1 Петабайт (Пбайт) = 1024 Тбайт = 2 50 байт.

При хранении и передаче информации с помощью технических средств целесообразно отвлечься от содержания информации и рассматривать ее как последовательность знаков. Набор символов знаковой системы (алфавит) можно рассматривать как различные возможные состояния. Если считать, что появление символов в сообщении равновероятно, то по формуле m=2 n , где m- общее количество символов алфавита, а n – количество информации, которую несет каждый символ, можно рассчитать, какое количество информации несет каждый символ, или другими словами, сколько двоичных ячеек памяти потребуется для хранения каждого символа.

Например, в русском алфавите, если не считать букву ё, количество букв равно 32. тогда 32=2n, откуда n=5 битов. Поэтому каждый символ несет 5 битов информации, а количество информации в сообщении можно подсчитать, умножив количество информации, которое несет один символ, на количество символов. Такой подход к измерению количества информации называют синтаксическим.

Для человека же существенное значение имеют именно смысл передаваемого сообщения и получаемые при этом знания, т.е. на основе смысловой информации вырабатывается и закрепляется соответствие между будущими символами или образами на входе и необходимыми действиями. Высшие животные не могли бы существовать, если бы у них не было достаточного соответствия (как бы смыслового словаря) между разнообразными сигналами ситуаций внешней среды (запах хищника, запах добычи и т.д.) и целесообразными в этих ситуациях действиями. У человека смысловая информация идет на пополнение соответствий не только между внешними сигналами и действиями, но и между понятиями.

Таким образом, общей чертой смысловой информации является то, что она изменяет запас сведений, запас соответствий у получателя информации. Первоначальный (и меняющийся в ходе поступления информации) запас соответствий можно представить себе как некоторый обобщенный словарь или справочник, который Ю.А.Шрейдер предложил называть тезаурусом (греч. «тезаурус» – сокровище; имеются в виду словари, где даны не только значения слов, но и связи между ними). В качестве меры количества смысловой информации естественно взять изменение тезауруса приёмника под действием поступившей информации.

Таким образом, тезаурусная (семантическая) мера, которая связывает смысловые свойства информации со способностью пользователя понимать поступившее сообщение. Количество информации (Ic) в этом случае зависит от смыслового содержания сообщения (S) и тезауруса приёмника (Sp). Характер такой зависимости показан на рис

Рассмотрим 2 предельных случая, когда количество семантической информации (Ic) равно 0. Если тезаурус приёмника слишком беден (Sp=0) количество информации в сообщении равно нулю, т.к. пользователь не понимает поступающие сведения. Например, в сообщении «Это учебник по высшей математике для 1 курса» трехлетний ребенок совсем ничего не поймет, а школьник старших классов уже кое-что выделит. Максимальную информацию, очевидно, извлечет студент того курса, для которого этот учебник предназначен. Любопытно, что по мере дальнейшего расширения тезауруса приёмника воспринимаемая информация начинает уменьшаться. Уже у студента второго курса при чтении учебника для 1 курса изменение тезауруса будет меньше, а для человека, хорошо знающего высшую математику (Sp → ), это учебник не несет никакой информации

Таким образом, максимальное количество информации приёмник получает при согласовании ее смыслового содержания со своим тезаурусом Sp(Sp = Sp opt), когда поступающие сведения понятны и несут ранее не известные сведения. Количество семантической информации является величиной относительной и зависит от компетентности получателя (пользователя).

Прагматическая мера информации определяет полезность, ценность информации для достижения поставленной цели. В этом случае оценка количества информации основывается на законах теории вероятностей, точнее, определяется через вероятности событий (формула Шеннона). Это и понятно. Сообщение имеет ценность, несет информацию только тогда, когда мы узнаем из него об исходе события, имеющего случайный характер, когда оно в какой-то мере неожиданно.

В экономических системах ценность информации измеряют в тех же единицах, что и целевая функция системы: прибыль, время обработки и принятия решения и т.п.

В системах автоматизированной обработки данных для измерения объемов информации используется синтаксическая мера (байт и его производные). Это объясняется тем, что эти системы организуются в виде хранилищ данных – баз данных, доступ к которым имеют разные пользователи для решения большого спектра задач.

Мы уже говорили, что понятие информации неразрывно с процессом информирования, который предполагает наличие 3 компонент: источник, получатель и канал передачи информации.

Различные количества информации передаются по каналам связи, и количество проходящей через канал информации не может быть больше его пропускной способности. А ее определяют по тому, какое количество информации проходит здесь за единицу времени.

Один из героев романа Жюля Верна «Таинственный остров», журналист Гедеон Спиллет, передавал по телефону главу из Библии, чтобы его конкуренты не могли воспользоваться телефонной связью. В этом случае канал был загружен полностью, а количество информации было равно нулю, ибо абоненту передавались известные для него сведения. Значит, канал работал вхолостую, пропустив строго определенное количество импульсов, ничем их не нагрузив.

А между тем, чем больше информации несет каждый из определенного числа импульсов, тем полнее используется пропускная способность канала. Поэтому нужно разумно кодировать информацию, найти экономный, скупой язык для передачи сообщений.

Основная масса информации собирается, передается и обрабатывается с помощью знаков. Знаки — это сигналы, которые могут передавать информацию при наличии соглашения об их смысловом содержании между источниками и приемниками информации. Набор знаков, для которых существует указанное соглашение, называется знаковой системой или языком.

Информацию «просеивают» самым тщательным образом. В телеграфе часто встречающиеся буквы, сочетания букв, даже целые фразы изображают более коротким набором нулей и единиц, а те, что встречаются реже более длинным. В случае, когда уменьшают длину кодового слова для часто встречающихся символов и увеличивают для редко встречающихся, говорят об эффективном кодировании информации.

1.2.4. Язык, коды, кодирование

Любое сообщение пишется на каком-либо языке. Язык – это форма (способ) общения, форма хранения и передачи знаний, а также средство получения новых знаний, непосредственно связанное с мышлением.

В информатике и информационных технологиях под языком понимают совокупность символов, соглашений, правил, используемых для отображения и передачи информации, средство описания данных и алгоритмов решения задач.

Упорядоченная последовательность символов – это алфавит языка.

Пусть А= – алфавит некоторого языка. А* — множество всевозможных последовательностей символов этого языка.

Язык – это подмножество А*, которое удовлетворяет двум системам правил: синтаксическим (голубая штриховка) и семантическим (штриховка бордо), причем семантическим правилам могут удовлетворять только те конструкции, которые удовлетворяют синтаксическим правилам.

Пример: ббсе – не удовлетворяет синтаксису русского языка

Петя съел трактор – все синтаксические правила соблюдены, но предложение не удовлетворяет семантике русского языка

Таким образом, знание языка означает

1. Знание его алфавита,

2. Знание синтаксических правил

3. Знание семантических правил

В этом случае вы сможете общаться и будете правильно поняты.

Преобразование конструкций одного языка в последовательность букв другого алфавита называется кодированием.

Если говорить о кодировании, то сначала надо определить, какую конструкцию языка будем рассматривать в качестве символа, т.е. некоторой неделимой конструкции.

Рассмотрим некоторое предложение языка Q. Предложение состоит из слов, которые в свою очередь состоят из букв. Возможны 3 варианта определения символа (неделимой конструкции языка):

1. символ = буква: предложение – последовательность букв алфавита. Такой подход используется при письменной записи.

2. символ = слово. Такое представление предложений используется в стенографии.

3. символ = предложение. Такая ситуация возникает при переводе с одного языка на другой, причем особенно ярко это проявляется при переводе пословиц, шуток, поговорок.

Проблемой кодирования начал заниматься великий немецкий математик Готфрид Вильгельм Лейбниц; он доказал, что минимальное количество букв, необходимое для кодирования любого алфавита, равно 2.

Пример. Русский язык: 33 буквы*2 (прописные, строчные)-2(ъ,ь) + 10 знаков препинания +10 цифр = 84 символа. Обязательным условием правильного кодирования является возможность однозначного преобразования АÛВ. Сколько двоичных символов необходимо, чтобы закодировать один символ русского языка?

буква код
а
А
б
Б
в
В
м
М

Предположим, надо закодировать слово Мама. Закодируем его: 10011 0 10010 0. Сделайте обратное преобразование (декодирование). Возникают проблемы, т.к. не понятно, где заканчивается одна буква и начинается другая. Основное правило однозначного преобразования из А в В и обратно нарушено, причина – использование кода переменной длины, следовательно необходимо выбрать код одинаковой заранее определенной длины. Какой?

N – длина кода Количество букв, которое можно закодировать кодом длины N (=2N)
64 (мало)
128 (много)

Вывод: чем меньше букв в алфавите, тем длиннее символ. В русском языке 33 буквы, слова в среднем состоят из 4-6 букв. В японском языке около 3000 иероглифов, в среднем 1 предложение

В вычислительных машинах используется двоичное кодирование информации любого типа: программы, текстовые документы, графические изображения, видеоклипы, звуки и т.д. Удивительно, но все это богатство информации кодируется с помощью всего двух состояний: включено или выключено (единица или ноль). Формирование представления информации называется ее кодированием. В более узком смысле под кодированием понимается переход от исходного представления информации, удобного для восприятия человеком, к представлению, удобному для хранения, передачи и обработки. В этом случае обратный переход к исходному представлению называется декодированием.

При любых видах работы с информацией всегда идет речь о ее представлении в виде определенных символических структур. Наиболее распространены одномерные представления информации, при которых сообщения имеют вид последовательности символов. Так информация представляется в письменных текстах, при передаче по каналам связи, в памяти ЭВМ. Однако широко используется и многомерное представление информации, причем под многомерностью понимается не только расположение элементов информации на плоскости или в пространстве в виде рисунков, схем, графов, объемных макетов и т.п., но и множественность признаков используемых символов, например цвет, размер, вид шрифта в тексте.

Кодирование текста осуществляется с помощью специальных программных кодовых таблиц. Каждому символу латинского и русского алфавита соответствует свое уникальное число. Можно назвать его номером. Для символов латинского алфавита кодовая таблица одинаковая для всех компьютеров и всех операционных систем. Для русского языка это не так. Например, русские тексты, созданные в операционной системе MS DOS нельзя просматривать в операционной системе WINDOWS без специального преобразования. Для стандартизации кодировки был разработан код ASCII (Американский стандартный код для информационного обмена). Это набор восьмибитовых чисел, который жестко определяет 128 символов для латинского алфавита и некоторых специальных символов, а коды от 128 до 255 предназначены для кодирования символов национальных алфавитов других стран, в том числе и России.

Итак, когда на клавиатуре компьютера нажимается какая-либо клавиша, то в оперативную память передается код этой клавиши, а затем с помощью специальной программы передается какому-либо устройству, например видеокарте, которая генерирует поточечное изображение символа на экране монитора. Внешний вид изображения символов на экране также определяется с помощью программы. Такая программа называется драйвером.

Драйвер – это программа-посредник между оборудованием и другими программами.

Таким образом, тексты хранятся на диске или в памяти в виде чисел и программным способом преобразовываются в изображения символов на экране.

1.2.5. Кодирование изображений

В 1756 году выдающийся русский ученый Михаил Васильевич Ломоносов (1711 -1765) впервые высказал мысль, что для воспроизведения любого цвета в природе достаточно смешать в определенных пропорциях три основных цвета: красный, зеленый, синий. Теория трехкомпонентности цвета утверждает, что в зрительной системе человека возникают нервные возбуждения трех типов, каждое из которых независимо от остальных.

Компьютерное кодирование изображений также построено на этой теории. Картинка разбивается вертикальными и горизонтальными линиями на маленькие прямоугольники. Полученная матрица прямоугольников называется растром, а элементы матрицы – пикселями (от англ. Picture’s element – элемент изображения). Цвет каждого пикселя представлен тройкой значений интенсивности трех основных цветов. Такой метод кодирования цвета называется RGB (от англ. red — красный, green — зеленый, blue – синий). Чем больше битов выделено для каждого основного цвета, тем большую гамму цветов можно хранить про каждый элемент изображения. В стандарте, называемом true color (реальный цвет), на каждую точку растра тратится 3 байта, по 1 байт на каждый основной цвет. Таким образом, 256 (=2 8 ) уровней яркости красного цвета, 256 уровней яркости зеленого цвета и 256 уровней яркости синего цвета дают вместе примерно 16,7 млн различных цветовых оттенков, это превосходит способность человеческого глаза к цветовосприятию.

Чтобы хранить всю картинку, достаточно записывать в некотором порядке матрицу значений цветов пикселей, например, слева направо и сверху вниз. Часть информации о картинке при таком кодировании потеряется. Потери будут тем меньше, чем мельче пиксели. В современных компьютерных мониторах с диагональю 15 -17 дюймов разумный компромисс между качеством и размером элементов картинки на экране обеспечивает растр в 768х1024 точки.

При кодировании изображений не всегда используются именно три основных цвета. При печати картинок (и при рисовании) на бумаге если смешать красную и зеленую краски, то получится не желтый, а коричневый цвет. Это происходит потому, что краски сами по себе не отражают света, а только поглощают некоторые цвета из падающего на них светового потока. Поэтому в качестве основных применяются другие цвета: голубой, сиреневый и желтый, а метод кодирования цвета называется CMY (от англ. cyan — голубой, magenta — сиреневый, yellow – желтый). При этом красный цвет получается как сумма сиреневого и желтого, а зеленый – как сумма желтого и голубого.

Так как визуальное восприятие цвета является трехкомпонентным, то всякий цвет может быть задан не менее чем тремя параметрами. Во многих программах обработки изображения используется более приближенная к человеческому восприятию схема

Не нашли то, что искали? Воспользуйтесь поиском:

Лучшие изречения: Только сон приблежает студента к концу лекции. А чужой храп его отдаляет. 8019 — | 6883 — или читать все.

Источники:
  • http://ru.wikibooks.org/wiki/%D0%92%D0%B8%D0%B4%D1%8B_%D0%B8%D0%BD%D1%84%D0%BE%D1%80%D0%BC%D0%B0%D1%86%D0%B8%D0%B8_%D0%B8_%D0%B5%D1%91_%D1%81%D0%B2%D0%BE%D0%B9%D1%81%D1%82%D0%B2%D0%B0
  • http://studopedia.ru/9_68824_ponyatie-informatsii.html