ПОНЯТТЯ ІНФОРМАЦІЇ Л.1

1.      Визначення інформації та основні напрямки вивчення

Предметом вивчення курсу «Теорія масової інформації» є природа інформації як явища у різних її аспектах. Термін «інформація» походить від латинського слова «informatio» і означає роз’яснення, виклад фактів, подій.

Проблеми інформації досліджують інженери, історики, біологи, соціологи, журналісти та представники багатьох інших галузей науки. У генетиці – спадкова інформація, зашифрована в молекулах нуклеїнових кислот. У біології – сукупність хімічно закодованих ознак, що передаються від клітини до клітини, від організму до організму.  Властивість матеріальних об'єктів і процесів зберігати і породжувати певний стан, який у різних речовинно-енергетичних формах може бути переданий від одного об'єкта іншому. У журналістиці -  коротка стаття, допис у газеті, що містить фактичні дані. Відомості в будь-якій формі та вигляді, на будь-яких носіях (у тому числі листування, книги, помітки, ілюстрації (карти, діаграми, малюнки, схеми тощо), фотографії, голограми, кіно-, відеофільми, мікрофільми, звукові записи, бази даних комп'ютерних систем або повне чи часткове відтворення їх елементів), пояснення осіб та будь-які інші публічно оголошені чи документовані відомості [1].

У кібернетиці інформація - відомості, що обробляються в контакті людини з автоматичним пристроєм, автоматичного пристрою з автоматичним пристроєм. Із виникненням кібернетики, яка вивчає системи будь-якої природи, що здатні сприймати, зберігати і переробляти інформацію та використовувати її для керування й регулювання, з'явилося наукове, універсальне розуміння інформації. З позиції теорії інформації, що органічно входить у кібернетику, розглядають і журналістську інформацію. У вузькому значенні теорія інформації — це математична теорія передачі повідомлень у системах зв’язку. Виникла вона внаслідок досліджень американського вченого К. Шеннона (1916 - 2001). Основні її постулати такі. Повідомлення (точніше, їх коди) надходять з джерела інформації через канал зв"язку до приймача інформації. Ці повідомлення змінюють систему знань (тезаурус) приймача, зменшують рівень невизначеності, який вимірюється ентропією.  

Отже, інформація — це знята невизначеність, яку кібернетична система у своїй пам’яті декодує та зберігає. Виміряти середню кількість інформації можна по зменшенню ентропії реципієнта (сприймача) у результаті зміни його уявлень.

У науці існує думка щодо існування двох якісно різних видів інформації. Підставою для цієї теорії служить твердження про різницю інформативної природи живої та неживої матерії .

Американський математик, «батько кібернетики» Н. Вінер (1894 - 1964)  вважав, що «інформація — це позначення змісту, який надходить з зовнішнього світу в процесі нашого пристосування до нього і пристосування до нього наших почуттів» [2].


Modifié le: Tuesday 26 January 2021, 16:36