Примеры свойство информации – ( )

2.2 Свойства информации

Получая какую-либо информацию, человек пытается ее осмыслить и оценить. Как же правильно ее оценить? Любая информация должна обладать свойствами.

Достоверность информации означает истинное, объективное отражение действительности. Каждый человек воспринимает окружающую действительность субъективно, имея свой собственный опыт, отличный от других взглядов и мнений. Поэтому передаваемая или получаемая человеком информация не может быть абсолютно объективна, но может быть приближена к ней. Смысл этого свойства заключается в определении, насколько данная информация соответствует истинному положению дел. Недостоверная информация повлечет за собой неправильное понимание и принятие неверного решения.

Полнота информации. Если информация содержит все интересующие нас данные и их достаточно для принятия решений, тогда говорят, что информация полная.

Актуальность информации. Если информация недельной давности, то она окажется ненужной, поэтому информация должна быть актуальной на момент принятия решения.

Ясность информации. Например, мы получили информацию достоверную, полную и актуальную о погоде на следующую неделю. Но эта информация записана в терминах и обозначениях синоптиков, не понятных для нас людей.. В этом случае она оказалась бесполезной. Информация должна быть выражена в понятной форме для получателя. В этом и заключается свойство информации – ясность.

Ценность информации. Получая новую информацию, мы смотрим, нужна ли она для решения конкретной проблемы. От того, какие задачи можно решить с помощью данной информации, зависит ее ценность.

2.3 Виды информации

Информация может существовать в виде:

  • текстов, рисунков, чертежей, фотографий;

  • световых или звуковых сигналов;

  • радиоволн;

  • электрических и нервных импульсов;

  • магнитных записей;

  • жестов и мимики;

  • запахов и вкусовых ощущений;

  • хромосом, посредством которых передаются по наследству признаки и свойства организмов и т.д.

Предметы, процессы, явления материального или нематериального свойства, рассматриваемые с точки зрения их информационных свойств, называются информационными объектами.

2.4 Измерение количества информации

Определить понятие «количество информации» довольно сложно. В решении этой проблемы существуют два основных подхода. Исторически они возникли почти одновременно. В конце 40-х годов XX века основоположник теории информации, американский математик Клод Шеннон, развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к «объемному» подходу.

Какое количество информации содержится, к примеру, в тексте романа, во фресках Рафаэля или в генетическом коде человека? Ответа на эти вопросы наука не даёт и, по всей вероятности, даст не скоро. А возможно ли объективно измерить количество информации? Важнейшим результатом теории информации является следующий вывод:

В определенных, весьма широких условиях можно пренебречь качественными особенностями информации, выразить её количество числом, а также сравнить количество информации, содержащейся в различных группах данных.

В настоящее время получили распространение подходы к определению понятия «количество информации», основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле её новизны или, иначе, уменьшения неопределённости наших знаний об объекте. Эти подходы используют математические понятия

вероятности и логарифма.

Подходы к определению количества информации. Формулы Хартли и Шеннона.

Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации H, содержащееся в выбранном сообщении, определял как двоичный логарифм N.

Формула Хартли:  

Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: . Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации.

Приведем другие примеры равновероятных сообщений:

  1. при бросании монеты: «выпала решка»

    , «выпал орел»;

  2. на странице книги: «количество букв чётное», «количество букв нечётное».

Определим теперь, являются ли равновероятными сообщения «первой выйдет из дверей здания женщина» и «первым выйдет из дверей здания мужчина». Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.

Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Формула Шеннона: H = — ( p1log2 p1 + p2 log2 p2 + . . . + pN log2 pN),

где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.

Легко заметить, что если вероятности p1, …, pN равны, то каждая из них равна 1 / N, и формула Шеннона превращается в формулу Хартли.

Помимо двух рассмотренных подходов к определению количества информации, существуют и другие. Важно помнить, что любые теоретические результаты применимы лишь к определённому кругу случаев, очерченному первоначальными допущениями.

В качестве единицы информации Клод Шеннон предложил принять  один бит    (англ. bitbinary digit — двоичная цифра).

Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений (типа «орел»—»решка», «чет»—»нечет» и т.п.) В вычислительной технике битом называют наименьшую «порцию» памяти компьютера, необходимую для хранения одного из двух знаков «0» и «1», используемых для внутримашинного представления данных и команд.

Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица —  байт,  равная  восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).

Широко используются также ещё более крупные производные единицы информации:

  • 1 Килобайт (Кбайт) = 1024 байт = 210 байт,

  • 1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,

  • 1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:

  • 1 Терабайт (Тбайт) = 1024 Гбайт = 2

    40 байт,

  • 1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.

За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации.

studfiles.net

1. Основные понятия информатики

2013 КазГАСА Информатика Жексембинова А.Б., Токтаркожа Г.Т.

Международная образовательная корпорация

Активный раздаточный материал

«Информатика»

ФОЕНП

3 кредита

3-й семестр 2012 – 2013 уч.год

Практическое занятие №1

«Основные понятия информатики»

Ассистенты профессора

Жексембинова А.Б., Токтаркожа Г.Т.

Краткое содержание занятия [1] c.5-24, [2] c.11-37, [3] c.15-23.

Информация – сведения о чем-либо. История человечества – это история того, как человек стремился получить информацию об окружающем его мире, сохранить, использовать, передать ее следующим поколениям. Наскальная живопись, клинопись, устная речь, музыкальные звуки, нотные знаки для их записи, алфавит, телеграф, радио, телефон, телевидение, компьютеры – вот лишь некоторые звенья цепи попыток совершенствовать способы получения, сохранения, обработки и передачи информации. [1] с.15-50.

Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленному в понятном компьютеру виду.

Информационные процессы – действия, выполняемые с информацией: получение, хранение, обработка, передача.

Компьютер открывает перед человеком новые возможности и перспективы развития этих процессов и коммуникации между людьми. Информация – основное понятие информатики.

Информационные технологии – технологии накопления, обработки и передачи информации с использование определенных технических средств.

Информационные ресурсы – это идеи человечества и указания по их реализации, накопленные в форме, позволяющей воспроизводить их (книги, статьи, патенты, диссертации, научно-исследовательская и опытно-конструкторская документация, технические переводы, данные о передовом производственном опыте и др).

Информатика – наука, изучающая методы сбора, хранения, обработки и передачи информации с помощью средств вычислительной техники.

Термин «информатика» происходит от французских слов information (информация) и automatique (автоматика).

2. Основные свойства информации

Среди основных свойств информации можно выделить следующие:

Объективность, полнота, достоверность, адекватность, доступность и актуальность информации.

Объективность и субъективность информации. Понятие объективности информации является относительным. Это понятно, если учесть, что методы являются субъективными. Более объективной принято считать ту информацию, в которую методы вносят меньший субъективный элемент. Так, например, принято считать, что в результате наблюдения фотоснимка природного объекта или явления образуется более объективная информация, чем в результате наблюдения рисунка того же объекта, выполненного человеком. В ходе информационного процесса степень объективности информации всегда понижается. Это свойство учитывают, например, в правовых дисциплинах, где по-разному обрабатываются показания лиц, непосредственно наблюдавших события или получивших информацию косвенным путем (посредством умозаключений или со слов третьих лиц).

Полнота информации. Полнота информации во многом характеризует качество информации и определяет достаточность данных для принятия решений или для создания новых данных на основе имеющихся. Чем полнее данные, тем шире диапазон методов, которые можно использовать, тем проще подобрать метод, вносящий минимум погрешностей в ход информационного процесса.

Достоверность информации. Данные возникают в момент регистрации сигналов, но не все сигналы являются «полезными» — всегда присутствует какой-то уровень посторонних сигналов, в результате чего полезные данные сопровождаются определенным уровнем «информационного шума». Если полезный сигнал зарегистрирован более четко, чем посторонние сигналы, достоверность информации может быть более высокой. При увеличении уровня шумов достоверность информации снижается. В этом случае для передачи того же количества информации требуется использовать либо больше данных, либо более сложные методы.

Адекватность информации – это степень соответствия реальному объективному состоянию дела. Неадекватная информация может образовываться при создании информации на основе неполных или недостоверных данных. Однако и полные, и достоверные данные могут приводить к созданию неадекватной информации в случае применения к ним неадекватных методов.

Доступность информации – мера возможности получить ту или иную информацию. На степень доступности информации влияют одновременно как доступность данных, так и доступность адекватных методов для их интерпретации. Отсутствие доступа к данным или отсутствие адекватности методов обработки данных приводят к одинаковому результату: информация оказывается недоступной. Отсутствие адекватных методов для работы с данными во многих случаях приводит к применению неадекватных методов, в результате чего образуется неполная, неадекватная или недостоверная информация.

Актуальность информации – это степень соответствия информации текущему моменту времени. Нередко с актуальностью, как и с полнотой, связывают коммерческую ценность информации. Поскольку информационные процессы растянуты во времени, то достоверная и адекватная, но устаревшая информация может приводить к ошибочным решениям. Необходимость поиска (или разработки) адекватного метода для работы с данными может приводить к такой задержке в получении информации, что она становится неактуальной и ненужной. На этом, в частности, основаны многие современные системы шифрования данных с открытым ключом. Лица, не владеющие ключом (методом) для чтения данных, могут заняться поиском ключа, поскольку алгоритм его работы доступен, но продолжительность этого поиска столь велика, что за это время работы информация теряет актуальность и, соответственно, связанную с ней практическую ценность.

Будучи объектом преобразования и использования, информация характеризуется следующими свойствами:

синтаксис – свойство, определяющее способ представления информации на носителе (в сигнале). Так, данная информация представлена на электронном носителе с помощью определенного шрифта. Здесь же можно рассматривать такие параметры представления информации, как стиль и цвет шрифта, его размеры, междустрочный интервал и т.д. Выделение нужных параметров как синтаксических свойств, очевидно, определяется предполагаемым способом преобразования. Например, для плохо видящего человека существенным является размер и цвет шрифта. Если предполагается вводить данный текст в компьютер через сканер, важен формат бумаги;

семантика – свойство, определяющее смысл информации как соответствие сигнала реальному миру. Так, семантика сигнала “информатика” заключается в данном ранее определении. Семантика может рассматриваться как некоторое соглашение, известное потребителю информации, о том, что означает каждый сигнал (так называемое правило интерпретации). Например, именно семантику сигналов изучает начинающий автомобилист, штудирующий правила дорожного движения, познавая дорожные знаки (в этом случае сигналами выступают сами знаки). Семантику слов (сигналов) познаёт обучаемый какому-либо иностранному языку. Можно сказать, что смысл  обучения информатике заключается в изучении семантики различных сигналов – суть ключевых понятий этой дисциплины;

прагматика – свойство, определяющее влияние информации на поведение потребителя. Так прагматика информации, получаемой читателем настоящего учебного пособия, заключается, по меньшей мере, в успешной сдаче экзамена по информатике. Хочется верить, что этим прагматика данного труда не ограничится, и он послужит для дальнейшего обучения и профессиональной деятельности читателя.

studfiles.net

Ответы@Mail.Ru: Свойство Информации — примеры.

Достоверность: все ныне живущие люди умрут Актуальность: в настоящее время на вашем счете 3 рубля Объективность: ты балбес Понятность: Чтобы приготовить салат из овощей, мелко нарежьте те овощи, которые для употребления в пищу не нуждаются в дополнительной термообработке, или те, которые лично вы можете употреблять в пищу без дополнительной термообработки, в количестве, вмещающемся в миску объемом 0.5 литра, перемешайте, добавьте соль на кончике ножа и 2 столовых ложки подсолнечного масла (любой фирмы на ваш выбор) . Полезность: Внимание, ваш автобус отправляется через 3 минуты! Полнота: Сумма углов треугольника равна 180 градусов, но только для прямоугольной системы координат на плоскости

Говорила мне мама..

Философы так и не решили еще. Система рассуждений, построенная не аксиомах логически ущербна. А других систем не получается построить…

1. Объективность информации 2. Необъективность информации 3. Достоверность информации 4. Недостоверность информации 5. Полнота информации 6. Неполная информация 7. Актуальность информации 8. Неактуальность информации 9. Ценная информация 10. Не ценная информация 11. Понятная информация 12. Непонятная информация

Светлана, спасибо вы очень помогли!

А где про «Ценность»???

touch.otvet.mail.ru

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *