Transcript
Page 1: Основи теорії інформації

ТТЕЕРРЕЕЩЩУУКК ВВ..ІІ..

ООССННООВВИИ ТТЕЕООРРІІЇЇ ІІННФФООРРММААЦЦІІЇЇ

((ККООННССППЕЕККТТ ЛЛЕЕККЦЦІІЙЙ))

ВВЕЕРРССІІЯЯ 22..11 ВВІІДД 33..IIXX..22000044 РР..

Page 2: Основи теорії інформації

2

Зміст

Тема №1 „Проблема визначення поняття інформації” .....................................................................3 1.1. Основні підходи до визначення поняття інформації ....................................................................3 1.2. Філософські концепції інформації ..................................................................................................3 1.3. Місце теорії інформації у системі наукового знання ....................................................................5

Тема №2 „Семіотика інформації” ..........................................................................................................7 2.1. Основи знакової теорії .....................................................................................................................7 2.2. Знак, типи знаків ...............................................................................................................................8 2.3. Структура та функції знаків ............................................................................................................8 2.4. Види знаків та знакових систем ......................................................................................................9

Тема №3 „Властивості інформації”......................................................................................................11 3.1. Базові властивості інформації .......................................................................................................11 3.2. Якість інформації............................................................................................................................12 3.3. Адекватність інформації ................................................................................................................13

Тема №4 „Концепції інформації в рамках семіотичного підходу” ................................................14 4.1. Визначення інформації в рамках семіотичного підходу ............................................................14 4.2. Структурно-синтаксичні концепції інформації ...........................................................................14 4.3. Логіко-семантичні концепції інформації .....................................................................................16 4.4. Прагматичні концепції інформації................................................................................................18

Тема №5 „Проблема передачі інформації”.........................................................................................19 5.1. Основні поняття та визначення .....................................................................................................19 5.2. Система передачі інформації.........................................................................................................20 5.3. „Ланцюжкова” модель передачі інформації ................................................................................21

Тема №6 „Інформаційні взаємодії у природі”....................................................................................23 6.1. Поняття та принципи інформаційної взаємодії у природі..........................................................23 6.2. Інформаційні взаємодії у неживій природі ..................................................................................23 6.3. Інформаційні взаємодії у найпростіших формах життя .............................................................24 6.4. Генетична інформація ....................................................................................................................26 6.5. Інформаційні взаємодії у складних формах життя......................................................................27

Тема №7 „Інформаційні революції” ....................................................................................................30 7.1. Інформаційні революції та їх значення для розвитку цивілізації ..............................................30 7.2. Перша інформаційна революція....................................................................................................30 7.3. Друга інформаційна революція .....................................................................................................31 7.4. Третя інформаційна революція .....................................................................................................31 7.5. Четверта інформаційна революція................................................................................................33

Page 3: Основи теорії інформації

3

Тема №1 „Проблема визначення поняття інформації” 1.1. Основні підходи до визначення поняття інформації 1.2. Філософські концепції інформації 1.3. Місце теорії інформації у системі наукового знання

1.1. Основні підходи до визначення поняття інформації Термін „інформація” походить від латинського „informatio”, яке має три значення: 1.) роз’яснення, виклад, витлумачення; 2.) представлення, поняття; 3.) ознайомлення, просвіта. Саме слово „informatio” складається з префікса „in-” („в-, на-, при-”) і дієслова „formо”

(„надаю форму, створюю”), пов’язаного з іменником „ forma” („форма”).

В англійській мові слово „information” (в написанні „informacioun”) вперше з’явилось у 1387 р. Сучасного написання це слово набуло у XVI ст. У східнослов’янські мови слово „інформація” прийшло із Польщі у XVII ст.

З середини ХХ століття „інформація” стала загальнонауковим поняттям, але до цих пір у науковій сфері воно залишається вкрай дискусійним. Загальноприйнятого визначення інформації не існує, і воно використовується головним чином на інтуїтивному рівні.

В залежності від галузі використання термін „інформація” одержав безліч визначень, наприклад:

– відомості або повідомлення про щось (побутове); – роз’яснення, виклад; – оригінальність, новизна; – комунікація та зв‘язок, в процесі якого усувається невизначеність (теорія зв’язку,

американський інженер Клод Шеннон); – заперечення ентропії, міра хаосу в системі (термодинаміка, французький вчений Леон

Бріллюен); – передача різноманітності (англійській філософ Уільям Росс Ешбі); – міра складності структур (французький вчений Абраам Моль); – ймовірність вибору (радянські вчені Аківа та Ісаак Яглон); – відображена різноманітність (радянський вчений Аркадій Дмитрович Урсул); – властивості матеріальних об’єктів породжувати та зберігати певне становище, яке в

різних матеріально-енергетичних формах може передаватись між об’єктами; – фундаментальний генералізаційно-єдиний безпочатково-безкінечний законопроцес авто-

осциляційного, резонансно-сотового, частотно-квантового та хвильового відношення, взаємодії, взаємоперетворення та взаємозбереження (у просторі та часі) енергії, руху, маси та антимаси на основі матеріалізації та дематеріалізації в мікро- та макроструктурах Всесвіту (інформаціологія, російський вчений Іван Йосипович Юзвішин);

– універсальна субстанція, що пронизує усі сфери людської діяльності, слугує провідником знань та думок, інструментом спілкування, взаєморозуміння та співробітництва, утвердження стереотипів мислення та поведінки (ЮНЕСКО);

– документовані або публічно оголошені відомості про події та явища, що відбуваються у суспільстві, державі та навколишньому природному середовищі (Закон України „Про інформацію”).

Існують також й інші, переважно несумісні між собою визначення поняття „інформація”.

1.2. Філософські концепції інформації Практично всі багаточисельні погляди на сутність інформації групуються навколо двох

концепцій – атрибутивної та функціональної.

Page 4: Основи теорії інформації

4

АТРИБУТИВНА КОНЦЕПЦІЯ ІНФОРМАЦІЇ Згідно атрибутивної концепції, інформація – це об’єктивна внутрішня властивість всіх

матеріальних об’єктів, вона міститься у всіх без винятку елементах та системах матеріального світу. Іншими словами, інформація є невід’ємним атрибутом (властивістю) матерії (звідси назва концепції). Зараз немало вчених та філософів вважають, що доречно говорити про три іпостасі існування матерії: речовина, яка відображає сталість матерії; енергія, яка відображає рух, зміну матерії та інформація, яка відображає структуру, організацію матерії.

Інформація, згідно цієї концепції, міститься у формі властивих матеріальним об’єктам структур (така інформація одержала назви структурна, потенційна, апріорна, внутрішня інформація, інформація „у собі”). З цим підходом пов’язане визначення інформації як відображення різноманітності.

Видатний український вчений, академік Віктор Михайлович Глушков (1923-82 рр.) вважав, що „інформація у самому загальному її розумінні являє собою міру неоднорідності розподілу ма-терії та енергії у просторі та у часі, міру змін, якими супроводжується всі процеси, що протікають у світі”. Тобто інформація створює уявлення про природу та структуру матерії, її впорядкованість та різноманіття. Вона не може існувати поза матерією, а значить, вона існувала та буде існувати вічно, її можна накопичувати, зберігати та переробляти.

Відповідно, процес пізнання розглядається як декодування інформації, яка міститься у предметах реального світу.

ФУНКЦІОНАЛЬНА КОНЦЕПЦІЯ ІНФОРМАЦІЇ Поява цієї концепції пов’язана з розвитком кібернетики – науки про управління та зв’язок у

живих організмах, суспільстві і машинах (це дало другу назву концепції – функціонально-кібернетична). Кібернетика формулює принцип нерозривного зв’язку (єдності) інформації з управлінням, з функціонуванням самокерованих та самоорганізовуваних систем (технічних, біологічних та соціальних).

Прихильники функціональної концепції не визнають існування інформації у неживій природі, а саму інформацію визначають як зміст сигналу або повідомлення, отриманого кібернетичною системою із зовнішнього світу.

Розвинута в роботах „батька кібернетики”, американського математика Норберта Вінера (Norbert Wiener, 1894-1964 рр.) концепція припускає, що процес управління в згаданих системах є процесом переробки (перетворення) певним центральним пристроєм інформації, одержуваної від джерел первинної інформації (сенсорних рецепторів) і передачі її в ті ділянки системи, де вона сприймається її елементами як наказ для виконання тієї або іншої дії. Після здійснення самої дії сенсорні рецептори готові до передачі інформації про ситуацію, що змінилася, для виконання нового циклу управління. Так організується циклічний алгоритм (послідовність дій) управління та циркуляції інформації в системі. При цьому важливо, що головну роль тут відіграє зміст інформації, переданої рецепторами і центральним пристроєм. Інформація, за Вінером – це „позначення змісту, отриманого з зовнішнього світу в процесі нашого пристосування до нього і пристосування до нього наших почуттів”.

Багато авторів вважають інформаційні процеси органічними якостями живих систем, які відрізняють їх від неживої природи, неодмінною субстанцією живої матерії, психіки, свідомості. В рамках цього підходу були висунуті твердження, що „специфіка життя пов’язана з наявністю інформації, за допомогою якої через особливого роду регуляцію забезпечується процес функціонування системи”, „життя – це спосіб існування органічних систем, заснована на використанні внутрішньої інформації” тощо. Інформація виступає в якості універсальної „життєвої сили”, яка управляє метаболічними процесами в живих істотах (існує навіть термін „інформаційний метаболізм”), організовує відображення середовища і адаптацію до нього, забезпечує збереження і передачу спадкоємних ознак, які формують популяцію, біоценози та біосферу в цілому, визначає біологічну еволюцію.

Page 5: Основи теорії інформації

5

Функціональна концепція інформації представлена двома течіями: кібернетичною та антропоцентричною.

Прихильники кібернетичної течії стверджують, що інформація (інформаційні процеси) при-сутні у всіх самокерованих (технічних, біологічних, соціальних) системах.

Антропоцентристська течія обмежує сферу існування інформації та інформаційних взаємо-дій виключно людським суспільством та свідомістю. Існування інформації в живий, а тим більше у неживій природі заперечується; вважається, що інформація з’явилась в ході антропосоціогенезу і оперувати нею можуть виключно соціалізовані особистості, які володіють мовою, свідомістю та самосвідомістю. Фактично антропоцентристська течія ототожнює поняття „інформація” і „соціа-льна інформація”, тому що ніякої іншої інформації, крім соціальної, не визнає.

Загалом за сферою виникнення виділяють три типи інформації: – елементарна інформація – яка існує в неживій природі; – біологічна інформація – яка існує у живій природі; – соціальна інформація – яка існує в людському суспільстві.

1.3. Місце теорії інформації у системі наукового знання Виникнення теорії інформації зазвичай пов’язують із появою у 1948 р. фундаментальної

роботи американського вченого Клода Шеннона „Математична теорія зв’язку”.

До теорії інформації в її вузькому класичному розумінні відносять результати розв’язання ряду фундаментальних теоретичних питань, які стосуються підвищення ефективності функціону-вання систем зв’язку:

– аналіз сигналів як засобу передачі повідомлення, включаючи питання оцінки кількості інформації, яка ними передається;

– аналіз інформаційних характеристик джерел повідомлень і каналів зв’язку та обґрунту-вання принципових можливостей кодування та декодування повідомлень, які забезпе-чують гранично припустиму швидкість передачі повідомлень по каналу зв’язку як за відсутності, так і за наявності перешкод.

В широкому розумінні до проблем теорії інформації відносять всі проблеми та задачі, до формулювання яких входить поняття інформації. Її предметом вважають вивчення процесів, пов’язаних з одержанням, передачею, зберіганням, обробкою та використанням інформації. За такого підходу теорія інформації торкається проблем багатьох наук – кібернетики, біології, психології, лінгвістики, педагогіки тощо.

В цьому контексті у сучасній науці прийнято говорити про виникнення т.зв. інформаційного підходу – методу наукового пізнання об’єктів, процесів або явищ різної природи (біологічних, технічних, соціальних), згідно якого в першу чергу виявляються та аналізуються найбільш харак-терні інформаційні аспекти, які визначають функціонування та розвиток досліджуваних об’єктів.

В основі теоретико-інформаційного розгляду будь-яких явищ лежить загальна структурна схема всіх процесів інформаційної взаємодії, обов’язковими елементами якої є джерело інфор-мації, приймач інформації та канал зв’язку між ними. Додатковими (необов’язковими) елементами схеми передачі інформації можуть бути названі перетворювачі її форми – на вході (виконують функцію кодування інформації) та на виході (виконують функцію декодування інформації); задача перетворювачів – забезпечити оптимальність перебігу інформаційного процесу.

Прикладом застосування інформаційного підходу може бути соціальна сфера. У людському суспільстві між його окремими елементами (індивідами, соціальними групами та інститутами) постійно відбувається обмін інформацією, яку прийнято називати соціальною інформацією. Враховуючи важливість системного дослідження цих інформаційних потоків, можна говорити про існування теорії соціальної комунікації.

Іншим прикладом може бути виникнення нової науки – інформаційна біологія. Об’єктами досліджень інформаційної біології є генетичні макромолекули – ДНК, РНК, білки, фундаментальні

Page 6: Основи теорії інформації

6

генетичні процеси – реплікація, транскрипція, трансляція, генетичні мережі, функціонування яких забезпечує виконання всіх функцій організмів.

Page 7: Основи теорії інформації

7

Тема №2 „Семіотика інформації” 2.1. Основи знакової теорії 2.2. Знак, типи знаків 2.3. Структура та функції знаків 2.4. Види знаків та знакових систем

2.1. Основи знакової теорії

Семіотика, або семіологія1 (від грец. semeion – знак, ознака) – наука, яка досліджує способи передачі інформації, властивості знаків та знакових систем в людському суспільстві (головним чином природні та штучні мови, а також деякі явища культури, системи міфів, ритуалів), природі (комунікація у тваринному світі) або в самій людині (зорове та слухове сприйняття тощо). Іншими словами, семіотика – це теорія знаків та знакових систем.

Основи цієї науки були закладені ще представниками античної та середньовічної філософ-ської думки. Основні принципи семіотики у ХIХ ст. сформулював американський філософ Чарльз Сандерс Пірс. У ХХ ст. семіотика набула лінгвістичного ухилу під впливом ідей лінгвістів Фердинанда де Соссюра та Луї Ельмслева, та філософського ухилу під впливом ідей американського філософа Чарльза Морріса.

Виділяються три розділи семіотики: 1. синтактика (або синтаксис, від грец. syntaxis – побудова, порядок) – вивчає закономір-

ності побудови знакових систем безвідносно до їх інтерпретації, тобто співвідношення знаків один з одним;

2. семантика (від грец. semantikos – те, що позначає) – вивчає відношення між знаком та його смислом;

3. прагматика (давньогрец. pragmatos – дія) – вивчає відношення знаків з їх відправниками, одержувачами та контекстом знакової діяльності.

У сучасній науці виділяють декілька напрямів семіотичних досліджень.

Перший напрямок – біологічна семіотика, або біосеміотика. Цей напрямок займається вивченням систем сигналізації (комунікації) тварин, включаючи нижчих тварин та комах, тобто досліджує системи, засновані на природних знаках, або знаках, так чи інакше важливих для існування самого організму, тобто біологічно суттєвих (біологічно релевантних). (Ч. Хоккетт, США; М. І. Жинкін, СРСР).

Другий напрямок – етносеміотика. Це найбільш широкий напрямок, який містить декілька течій, одна з яких орієнтується на антропологію та етнографію, тобто вивчення переважно примітивних спільнот (Е. Холл, США; К. Леві-Стросс, Франція); друга течія – на соціальну психологію та інженерну психологію, тобто вивчення високорозвинених спільнот (Ж. Маторе, Франція; А. Чапаніс та ін., США); третя течія – на історію філософії та літератури (Р. Барт, М. Фуко та ін., Франція).

Третій напрямок – лінгвосеміотика – орієнтується на вивчення природної мови з її стилістикою. Крім того, лінгвосеміотика досліджує інші суміжні знакові системи, які:

а) функціонують паралельно с мовою наприклад, жести та міміка, що супроводжують мову); б) компенсують мову (наприклад, виразна, стилістична інтонація; типографські шрифти); в) видозмінюють її функції та її знаковий характер (наприклад, художня мова).

В останні роки у зв’язку із бурхливим розвитком моделювання природної мови і появою різних типів штучних мов (інформаційних, інформаційно-логічних, мов програмування тощо) розширився і об’єкт лінгвосеміотики.

Четвертий напрямок – абстрактна семіотика – вивчає лише найбільш загальні властивості та відношення, що характеризують знакові системи, незалежно від їх матеріального втілення

1 Термін „семіологія” більш розповсюджений в європейській науковій традиції, „семіотика” – в американській.

Page 8: Основи теорії інформації

8

(Р. Карнап за рубежем; В. Б. Бірюков, Д. П. Горський, А. А. Зинов’єв, В. В. Мартинов та ін., СРСР). В рамках цього напрямку створюється найбільш абстрактна, логіко-математична теорія знакових систем.

2.2. Знак, типи знаків Знак – це матеріальний, чуттєво сприйманий об’єкт, який виступає в процесі пізнання та

спілкування в ролі замінника (представника) іншого предмета, явища, дії або події, і викорис-товується для одержання, зберігання, перетворення та передачі інформації.

Знаки представляють собою двосторонню сутність. З одного боку, він є матеріальним (тобто має план вираження), з іншого – він є носієм нематеріального смислу (план змісту).

Сукупність знаків утворює знакову систему.

Чарльз Пірс вважав, що знак або копіює об’єкт (іконічний знак), або на нього вказує (індексальний знак), або його символізує, перебуваючи з ним в умовному зв’язку (знак-символ). Відповідно до цього ним була створена класифікація знаків за трьома групами:

1. Іконічні знаки – дія яких заснована на фактичній подібності до означуваного об’єкта (план вираження схожий на план змісту), тобто знак копіює об’єкт (портрет, фотографія, геогра-фічна карта, зліпки, відбитки, сліди тощо).

2. Індексальні знаки (індекси, знаки-прикмети) – дія яких заснована на реальній суміжності знаку та означуваного об’єкту (план змісту частково або побічно пов’язаний із планом вираження). Прикладами таких знаків є дорожні знаки (наприклад, зображення двох ліній, що звужуються, сигналізує про звуження дороги попереду), дим є прикметою вогню, тремтіння – прикмета страху або холоду і т.п.

3. Знаки-символи (умовні, конвенціональні знаки) – дія яких заснована умовному, встановленому „за домовленістю” зв’язку між знаком та означуваним об’єктом (план вираження не має нічого спільного с планом змісту). Це більшість слів будь-якої мови (слово „стіл” не схоже на самий стіл, на відміну від зображення стола), жести тощо.

Основні властивості знаку: – властивість перцептивності – знак повинен бути доступним для сприйняття адресатом; – властивість інформативності – знак повинен нести смислову інформацію про означува-

ний об’єкт.

2.3. Структура та функції знаків В семіотиці історично склалось два підходи до сутності знаку: логіко-філософський (Ч. Пірс)

та лінгвістично-комунікаційний (Ф. де Соссюр).

Згідно першого підходу, знак представляє собою предмет (слово, зображення, символ, сигнал, річ, фізичне явище тощо), який заміщує, репрезентує інший матеріальний або ідеальний об’єкт в процесах пізнання та комунікації. Об’єкт, який репрезентує знак, одержав назву детонат, уявлення про об’єкт, яке склалось у суб’єкта знакової діяльності, одержало назву концепт (або десигнат).

Німецький філософ та логік, один із засновників логічної семантики Готліб Фреге (1848-1925 рр.) представив співвідношення між детонатом, концептом та знаком у вигляді трикутника, який демонструє залежність знака як від об’єктивно існуючої реальності (детонат), так і від суб’єктивних уявлень про цю реальність (концепт).

Page 9: Основи теорії інформації

9

Рис. 2.1. Логічний трикутник Г.Фреге З точки зору Фердинанда де Соссюра, в знаку розрізняються дві сторони: означуване

(сигніфікат, образ предмету, ідея, поняття, концепт, зміст, в традиційному вжитку – значення) та означаюче (сигніфікант, експонент, вираження).

Рис. 2.2. Структура знаку Ф. де Соссюра Обидві сторони знаку взаємно передбачають одна одну. Але в той же час існує і властивість

асиметрії сторін знака: 1. Явище синхронії (від грец. synchronos – одночасний): одне й те ж означуване може

співвідноситись з декількома означаючими (в мовних знакових системах це явище отримало назву синонімія), або одне й те ж означаюче може співвідноситись з декількома означуваними (омонімія).

2. Явище діахронії (від грец. dia – через, скрізь, та chronos – час): з плином часу може змінюватись у часі або зовнішня форма знаку (наприклад, фонетичний вигляд слова), або значення знаку (наприклад, свастика)

В основі всіх знаків будь-якої мови лежать три елементарні функції: – назвати предмети реального світу (номінація), – привести назване у зв’язок один до одного (предикація), – локалізувати назване у просторі та часі (локація). Три основні семіотичні функції випливають з семіотичної моделі комунікації. Згідно цієї

моделі, знак є посередником між користувачем та об’єктами зовнішнього світу:

Рис. 2.3. Семіотична модель комунікації

2.4. Види знаків та знакових систем Класифікація знаків та знакових систем:

1. Одиничні та системні: одиничний знак є єдиним у своєму класі знаків, системний знак – це знак, який входить до певної знакової системи.

2. Умовні та природні: у природних знаків, на відміну від умовних, означаюче та означуване утворюють природну єдність (міміка). Умовні знаки в свою чергу поділяються на довільні та символічні: зображення довільного знаку нічого не говорить про його значення, символічний знак подібний до свого значення.

КОРИСТУВАЧ – ЗНАК – ОБ’ЄКТ

Page 10: Основи теорії інформації

10

3. Прямі та опосередковані: прямі знаки безпосередньо посилаються на предмет або явище, опосередковані мають детонатом інші знаки.

4. Синтагматичні та асинтагматичні: синтагматичний знак є частиною повідомлення, асинтагматичний знак несе ціле повідомлення.

5. Тематичні (обмежені) та атематичні: тематичні знаки використовуються виключно для передачі певної спеціалізованої (тематичної) інформації, атематичні знаки можуть використовуватись для передачі будь-якої інформації.

6. Статичні та операційні: операційні знаки означають операції над іншими знаками, статичні знаки такої функції не виконують.

7. Ситуативні та аситуативні: ситуативні знаки набувають різних значень в залежності від ситуації, аситуативні знаки своїх значень не змінють.

Класифікація знакових систем за особливостями знакового складу:

1. Замкнені та відкриті знакові системи: в замкнених системах кількість знаків чітко визначена, і кожен новий знак перетворює вихідну знакову систему у нову; у відкритих системах поява нових знаків не порушує старої системи.

2. Прості та складні знакові системи: прості складаються з однорідних знаків, складні – з різнотипних знаків. Складні системи можуть бути одно- та багатоярусними. В останніх виникає ієрархічне підпорядкування – знаки однієї підсистеми можуть бути зведені, спрощені до знаків іншої.

3. Перехресні та самобутні знакові системи: всередині перехресних систем містяться одні і ті самі знаки, самобутні – не перетинається з іншими.

Класифікація знакових систем за матеріальною природою:

1. звукові (усна мова, музика тощо), сприймаючий аналізатор – слуховий; 2. графічні (алфавіт, живопис, фотографія, стенографія, загальнонаукові символи, ноти,

ієрогліфи тощо), сприймаючий аналізатор – зоровий; 3. рух (танець, мова глухонімих, положення рук регулювальника), сприймаючий аналізатор

– зоровий; 4. запах, сприймаючий аналізатор – органи нюху; 5. колір (світлофор, кольори як символи), сприймаючий аналізатор – зоровий; 6. форма (співвідношення опуклостей та впадин в алфавіті сліпих), сприймаючий аналізатор

– тактильний, органи дотику; 7. предмет (ялинка як символ новорічних свят, обручка як символ одруженості), сприй-

маючий аналізатор – зоровий; 8. матеріал (золото як символ багатства, сталь як символ міцності), сприймаючий

аналізатор – зоровий; 9. вчинок (заручини як символ обіцянки вступити у шлюб), сприймаючий аналізатор –

переважно зоровий.

Page 11: Основи теорії інформації

11

Тема №3 „Властивості інформації” 3.1. Базові властивості інформації 3.2. Якість інформації 3.3. Адекватність інформації

3.1. Базові властивості інформації Базові властивості інформації поділяються на такі групи: – атрибутивні властивості; – прагматичні властивості; – динамічні властивості. Атрибутивні властивості – це ті властивості, без яких інформація не існує. Прагматичні

властивості характеризують ступінь корисності інформації для її користувача. Динамічні власти-вості характеризують зміну інформації в часі.

АТРИБУТИВНІ ВЛАСТИВОСТІ ІНФОРМАЦІЇ Невідривність інформації від фізичного носія та знакова природа інформації – будь-яка

інформація існує лише на конкретному фізичному носієві і представлена за допомогою певної знакової системи (мови). Але водночас інформація не має жорсткої прив’язки ані до конкретної знакової системи, ані до конкретного носія.

Дискретність інформації – будь-які відомості, знання, які містяться в інформації, поши-рюються у виді різних повідомлень, які складаються з окремих елементів: букв, цифр, символів, знаків, кольорів тощо.

Безперервність інформації – інформація має властивість зливатись з уже зафіксованою та накопиченою раніше, що сприяє її поступальному нагромадженню та розвитку.

ПРАГМАТИЧНІ ВЛАСТИВОСТІ ІНФОРМАЦІЇ Прагматичні властивості інформації визначають ступінь корисності інформації для конкрет-

ного користувача і виявляються в процесі використання інформації. З цього погляду виділяють такі властивості, як смисл та новизна, корисність, цінність та кумулятивність.

Смисл та новизна – ця властивість характеризує переміщення інформації в соціальних комунікаціях і виділяє ту її частину, яка є новою для споживача.

Корисність. Корисною вважається така інформація, яка зменшує невизначеність щодо певного об’єкта. Інформація, яка має негативне значення корисності, називається дезінформацією. Також зустрічається застосування терміна корисності інформації для опису впливу, який здійснює інформація на внутрішній стан людини, її настрій, самопочуття, здоров’я. У цьому смислі корисна або позитивна інформація – це та, котра позитивно сприймається людиною, сприяє поліпшенню її самопочуття, а негативна інформація пригнічує психіку та самопочуття людини і може призвести до погіршення її здоров’я.

Цінність – це вигода, яку дає інформація з урахуванням вартості її отримання. Основними вигодами від інформації є зменшення невизначеності, прийняття кращих рішень та підвищення здатності планувати діяльність. Витрати – це час та ресурси, витрачені на збір даних та їх обробку, зберігання та представлення інформації. Необхідно звернути увагу, що цінність інформації різна для різних споживачів та користувачів.

Кумулятивність – ця властивість пов’язана з можливістю більш короткого, узагальненого представлення інформації без втрати її смислу.

Page 12: Основи теорії інформації

12

ДИНАМІЧНІ ВЛАСТИВОСТІ ІНФОРМАЦІЇ Динамічні властивості інформації, як випливає з самої назви, характеризують динаміку

розвитку інформації в часі. Виділяють дві динамічні властивості інформації: зростання інформації та старіння інформації.

Зростання інформації – ця властивість пов’язана з рухом інформації в інформаційних комунікаціях, які забезпечують можливості її багаторазового поширення та використання. Як вже відзначалось, інформація не зв’язана жорстко ані з конкретною мовою, ані з конкретним носієм, і завдяки цьому інформація може бути отримана і використана декількома споживачами. Крім того, одна і та сама інформація може бути розміщена на різних джерелах.

Старіння – це властивість інформації втрачати з часом свою практичну цінність. Фактично, інформація старіє не з плином часу, а внаслідок появи нової інформації, яка уточнює, доповнює чи спростовує (повністю або частково) попередню.

3.2. Якість інформації Окрім базових властивостей інформації виділяються також споживчі властивості інформації,

які в цілому визначають якість інформації.

Якість інформації – це сукупність властивостей, які відображають ступінь придатності конкретної інформації для досягнення цілей, які стоять перед споживачем.

Можливість та ефективність використання інформації обумовлюються такими основними її споживчими показниками якості як репрезентативність, змістовність, достатність, доступність, актуальність, своєчасність, точність, достовірність, стійкість.

Репрезентативність інформації – визначається близькістю інформації до відображуваного об’єкта. Вона пов’язана з правильністю відбору та формування інформації з метою адекватного відображення певного об’єкта. Найважливіше значення тут мають:

– правильність концепції, на базі якої сформульоване вихідне поняття; – обґрунтованість відбору істотних ознак і зв’язків відображуваного явища.

Змістовність інформації – пов’язана з наявністю в інформації змісту для конкретного споживача; визначається семантичною ємністю, яка дорівнює відношенню кількості смислової інформації в повідомленні до загального обсягу даних.

Достатність (повнота) інформації – означає, що вона містить мінімальний, але достатній для певних цілей обсяг даних.

Доступність інформації для сприйняття користувачем пов’язана з представленням інформації у доступній для сприйняття користувачем формі.

Актуальність інформації – визначається ступенем збереження цінності інформації для користувача в момент її використання і залежить від динаміки змін її характеристик і від інтервалу часу, що пройшов з моменту виникнення даної інформації.

Своєчасність інформації – означає її надходження не пізніше заздалегідь визначеного моменту часу, узгодженого з часом вирішення поставленої задачі.

Точність інформації – визначається ступенем близькості інформації до реального стану об’єкта, який вона відображає.

Для інформації, яка відображається цифровим кодом, виділяють чотири класифікаційних поняття точності:

– формальна точність – вимірюється значенням одиниці молодшого розряду числа; – реальна точність – обумовлюється значенням одиниці останнього розряду числа, вір-ність якого гарантується;

– максимальна точність – точність, яку можна одержати за конкретних умов; – необхідна точність – обумовлюється функціональним призначенням показника.

Page 13: Основи теорії інформації

13

Достовірність інформації – це властивість інформації відображати реально існуючі об’єкти з необхідною точністю. Вимірюється достовірність інформації ймовірністю того, що відображу-ване інформацією значення параметра відрізняється від істинного в межах необхідної точності.

Стійкість інформації – відображає її здатність реагувати на зміни вихідних даних без порушення необхідної точності. Стійкість інформації, як і репрезентативність, обумовлена обраною методикою її відбору і формування.

3.3. Адекватність інформації Для користувача важливою характеристикою інформації є її адекватність.

Адекватність інформації – це рівень відповідності створюваного за допомогою отриманої інформації образа реальному об’єкту, процесу, явищу тощо.

У реальному житті повну адекватність інформації практично неможлива – завжди існує певний ступінь невизначеності. Від ступеня адекватності інформації реальному станові об’єкта або процесу залежить правильність прийняття рішень людиною.

Адекватність інформації може виражатись в трьох формах: – синтаксичній, – семантичній, – прагматичній.

Синтаксична адекватність відображає формально-структурні характеристики інформації і не торкається її смислового змісту. На синтаксичному рівні враховуються тип носія та спосіб представлення інформації, швидкість передачі та обробки, розміри кодів представлення інфор-мації, надійність і точність перетворення цих кодів тощо. Інформацію, яка розглядається лише з синтаксичних позицій, зазвичай називають даними. Ця форма сприяє сприйняттю зовнішніх структурних характеристик, тобто синтаксичної сторони інформації.

Семантична (смислова) адекватність визначає ступінь відповідності образа об’єкта і самого об’єкта, тобто передбачає врахування смислового змісту інформації. На цьому рівні аналізуються ті відомості, які несе інформація, розглядаються смислові зв’язки (наприклад, смислові зв’язки між кодами представлення інформації). Ця форма служить для формування понять і представлень, виявлення смислу, змісту інформації та її узагальнення.

Прагматична (споживча) адекватність пов’язана з цінністю, корисністю використання інформації при виробленні споживачем рішення для досягнення своєї мети, тобто аналізуються споживчі властивості інформації. Прагматична форма адекватності інформації може існувати лише за наявності єдності інформації, користувача та мети його діяльності і безпосередньо пов’язана з практичним використанням інформації.

Page 14: Основи теорії інформації

14

Тема №4 „Концепції інформації в рамках семіотичного підходу” 4.1. Визначення інформації в рамках семіотичного підходу 4.2. Структурно-синтаксичні концепції інформації 4.3. Логіко-семантичні концепції інформації 4.4. Прагматичні концепції інформації

4.1. Визначення інформації в рамках семіотичного підходу Семіотичний підхід до визначення сутності інформації пов’язаний із семіотикою – теорією

знакових систем. Відповідно до розділів семіотики – синтактики, семантики та прагматики – виділяють три аспекти інформації: синтаксичний, семантичний та прагматичний.

Мал. 4.1. Концепції інформації в рамках семіотичного підходу Синтаксичний аспект пов’язаний зі способом представлення інформації незалежно від її

смислових та споживчих якостей. На цьому рівні розглядаються форми представлення інформації для її передачі і збереження.

Семантичний аспект розглядає смисловий бік інформації. Інформацією вважаються лише ті відомості, які є для одержувача новими.

Прагматичний аспект визначає можливість досягнення поставленої мети з урахуванням одержаних відомостей, і інформацією вважаються лише ті відомості, які сприяють досягненню певної мети. Цей аспект заснований на єдності інформації, споживача і поставленої мети і відобра-жає споживчі якості інформації.

4.2. Структурно-синтаксичні концепції інформації Однією з найбільш відомих структурно-синтаксичних концепцій інформації є ймовірнісно-

статистична теорія інформації. У цій теорії поняття інформації служить для розв’язання прак-тичних задач, з якими зіштовхуються інженери-зв’язківці: оптимізація кодування повідомлень, підвищення стійкості сигналу до перешкод, розпізнавання сигналів на фоні шумів, розрахунок пропускної здатності каналів зв’язку тощо.

Джерела ймовірнісно-статистичної теорії інформації містяться у працях американських інженерів та математиків, в яких робились перші спроби кількісної оцінки інформації в контексті конкретних практичних задач техніки зв’язку. В 1928 році в журналі „The Bell Systems Technical Journal” була надрукована стаття американського вченого Ральфа В. Л. Хартлі (Ralph Vinton Lyon Hartley, 1888-1970 рр.) „Передача інформації” („Transmission of information”), в якій вперше була запропонована міра кількості інформації.

Page 15: Основи теорії інформації

15

Ішим вченим, який займався проблемами передачі інформації, був Харрі Найквіст (Harry Nyquist, 1889-1976 рр.). У 1924 р. вийшла його праця „Деякі фактори впливу на швидкість теле-графу” („Certain Factors Affecting Telegraph Speed”), у 1928 р. – „Деякі питання теорії телеграфної передачі” („Certain Topics in Telegraph Transmission Theory”).

Найбільш повно питання передачі інформації були розроблені американським інженером Клодом Е. Шенноном (Claude Elwood Shannon, 1916-2001 рр.) у праці „Математична теорія зв’язку” („A Mathematical Theory of Communication”), яка вийшла у 1948 р.

У задачах теорії зв’язку розглядається система, яка складається з джерела інформації, приймача і розташованого між ними каналу зв’язку. Істотно, що для одержувача єдиним способом одержання інформації є зчитування повідомлення з каналу зв’язку. Іншими словами, приймаюча сторона не може вірогідно вгадати наступне повідомлення. Так у розгляд уводиться поняття невизначеності, що відіграє в теорії фундаментальну роль. До прийому повідомлення в приймача існує невизначеність (незнання) щодо того, яке повідомлення має надійти. Акт прийому пові-домлення знімає дану невизначеність. Якщо відомо, що в каналі зв’язку відсутні перешкоди, то невизначеність знімається цілком. У іншому випадку невизначеність усувається лише частково, тому що в приймаючої сторони залишається ще невизначеність (сумнів) щодо того, чи не є прийняте повідомлення результатом спотворення внаслідок впливу шумів. Якість інформації при такому підході оцінюється статистичним методом – за ймовірністю отримання правильної (неспо-твореної) інформації. Звідси назва цієї теорії – ймовірносно-статистична.

Під інформацією в синтаксичній теорії інформації розуміють не будь-які відомості, а лише ті, які знімають або зменшують існуючу невизначеність. За визначенням К. Шеннона інформація – це знята невизначеність. Відповідно до цього, чим менша ймовірність певної події, тим більше інформації несе повідомлення про його появу. Цей підхід оперує виключно кількісними співвід-ношеннями, не вдаючись у зміст та смисл інформації, що дає змогу використовувати виключно математичні засоби для виміру кількості інформації.

Припустимо, що якась подія має m рівноймовірних результатів. Такою подією може бути, наприклад, поява будь-якого символу з алфавіту, що містить m таких символів. Вимірити кількість інформації, яка може бути передане за допомогою такого алфавіту, можна, визначивши число N можливих повідомлень, які можуть бути передані за допомогою цього алфавіту. Якщо повідом-лення формується з одного символу, то N = m, якщо з двох, то N = m · m = m2, якщо повідомлення містить n символів (n – довжина повідомлення), то N = mn.

Але ця міра не відображає певних особливостей. По-перше, якщо алфавіт складається з одного символу, то N = m = 1, тоді як у цьому випадку невизначеності взагалі не існує, а отже, повідомлення не несе ніякої інформації. По-друге, якщо є два незалежні джерела повідомлень N1 та N2, то число спільних можливих повідомлень N = N1 · N2, тоді як кількість інформації від двох незалежних джерел повинно бути не добутком, а сумою складових величин.

Виходячи з цього, Р.Хартлі запропонував визначати інформацію I, яка приходиться на одне повідомлення, логарифмом загального числа можливих повідомлень N:

I (N) = log N – формула Хартлі

Якщо ж уся безліч можливих повідомлень складається з одного (N = m = 1), то I (N) = log 1 = 0, що відповідає відсутності інформації в цьому випадку. При наявності незалежних джерел інформації з N1 та N2 числом можливих повідомлень I (N) = log N = log N1 · N2 = log N1 + log N2, тобто кількість інформації, що припадає на одне повідомлення, дорівнює сумі кількостей інформації, що були б отримані від двох незалежних джерел, узятих порізно.

Основа логарифму не має принципового значення і визначає лише масштаб або одиницю виміру інформації. Частіше всього в якості основи використовують число 2, при цьому одиниця кількості інформації називається двійковою одиницею, або бітом (назва bit утворена з початкових і останніх букв англійського словосполучення binary digit, що і означає “двійкова одиниця”). При виборі основи логарифма рівної 10 отримаємо десяткову одиницю, яка називається дітом (decimal digit – “десяткова одиниця”). Іноді використовують натуральну одиницю кількості інформації, яка

Page 16: Основи теорії інформації

16

називається натом (natural digit – “натуральна одниця”), при цьому основа логарифма дорівнює e=2,71.

Вимірювання кількості інформації також може здійснюватись за допомогою ймовірності появи певного повідомлення. Якщо кількість можливих повідомлень дорівнює N, то ця ймовір-ність дорівнює р = 1/N. Підставимо це значення у формулу Хартлі:

I = log N = log (1/p) = – log p тобто кількість інформації на кожен рівноймовірний сигнал дорівнює від’ємному логарифму імовірності окремого сигналу.

Знак мінус, що кількість інформації в повідомленні є негативною величиною. Це пояснюєть-ся тим, що імовірність р, відповідно до визначення, менша від одиниці, але більша від нуля. Оскільки логарифм числа, меншого одиниці, тобто log pi – величина негативна, то значення кіль-кості інформації буде позитивним.

Формула Хартлі дозволяє визначити кількість інформації в повідомленні лише для випадку, коли поява символів рівноймовірна і вони статистично незалежні. На практиці ця умова виконує-ться рідко. При визначенні кількості інформації необхідно враховувати не тільки кількість різно-манітних повідомлень, який можна одержати від джерела, але й імовірність їхнього одержання.

Для визначення середньої кількості інформації, яка приходиться на один сигнал, тобто пито-му інформативність джерела, потрібно це число розділити на N:

H = (log N) / N = – p log p Це значення одержало назву інформаційної ентропії джерела інформації. У випадку різноймовірних подій інформаційної ентропії джерела:

H = (– p1 log p1) + (– p2 log p2) + … + (– pN log pN), або

∑=

−=N

iii ppH

1log – формула Шеннона

Розвиток статистичної теорії інформації призвів до таких результатів. По-перше, стало можливим строге кількісне дослідження інформаційних процесів. По-друге, був розширений обсяг поняття інформації, тому що статистична теорія цілком відволікається від двох інших семіотичних аспектів інформації: семантичного (смислового) і прагматичного (ціннісного). З позицій цієї теорії інформацію несе не тільки людська мова, але і будь-які об’єкти та процеси, які підпорядковуються статистичним закономірностям.

Серед інших структурно-синтаксичних концепцій можна виділити алгоритмічний підхід, який у 1965 році запропонував радянський вчений Андрій Миколайович Колмогоров (1903-87 рр.). Згідно цього підходу кількість інформації визначається як мінімальна довжина програми, яка доз-воляє перетворювати один об’єкт (множину) в інший об’єкт (множину). Чим більше різняться два об’єкти між собою, тим складніша (довша) програма переходу від одного об’єкта до іншого.

Наприклад, відтворити послідовність літер а, а, ..., а можна за допомогою дуже простої програми. Для відтворення послідовності a, b, c, a, b, c, ... потрібна вже довша програма. Довжина програми вимірюється кількістю команд (операцій), які дозволяють відтворити послідовність.

4.3. Логіко-семантичні концепції інформації Семантичний аспект інформації передає смисловий зміст інформації та співвідносить її з

попередньою інформацією. Тобто під інформацією в семантичному аспекті розуміють відомості, які є для одержувача новими (тобто володіють властивістю новизни).

Першими семантичний бік інформації почали досліджувати у 1952 році вчені Рудольф Карнап (Rudolf Carnap, 1891-1970 рр.) та Йошуа Бар-Хіллел (Yehoshua Bar-Hillel, 1915-1975 рр.).

Page 17: Основи теорії інформації

17

Вони поклали початок застосуванню ідей та методів імовірнісної логіки та логічної семантики для аналізу інформаційного змісту мови науки (це дало другу назву семантичній теорії інформації – логіко-семантична).

Сутність запропонованого ними підходу полягає у тому, що якщо є певне початкове достовірне знання про світ, і певна гіпотеза, то за допомогою методів імовірнісної логіки можна обчислити ступінь новизни гіпотези в порівнянні з початковим знанням. Ступінь новизни буде тим більша, чим менше дана гіпотеза випливає з відомих фактів. Очевидно, якщо об’єкту буде повідомлена нова інформація, яка ніяк не випливає з наявного у нього запасу знань, то суб’єкт одержить більшу кількість інформації. І навпаки, якщо те, що суб’єктові повідомлено, і без того випливає з відомих фактів, то ніякої нової інформації суб’єкт не одержує. На підставі цього в теорії Карнапа-Бар-Хиллела ступінь новизни повідомлення і вважається кількістю семантичної інформації.

Фінський вчений Яаaкко Хінтікка (Jaakko Hintikka, р.н. 1929) поширив основні ідеї семантичної теорії інформації Карнапа і Бар-Хиллела на логіку висловлень. Для багатьох ситуацій (спостереження, виміру, підтвердження гіпотези, наукового передбачення, пояснення) він запро-понував метод визначення зменшення невизначеності, яке відбувається з гіпотезою g після одер-жання того або іншого емпіричного факту h або взагалі зміни інформаційного змісту висловлення g при одержанні висловлення h.

Концепція Карнапа-Бар-Хиллела одержала також розвиток у працях Джона Кемені (John G. Kemeny).

Головним недоліком логіко-семантичного підходу був абстрактний рівень розгляду змісту інформації, незалежно від її одержувача.

Інший підхід був запропонований радянським вченим Юлієм Анатолійовичем Шрейдером (1927-1998 рр.). У його моделі кількість семантичної інформації, що міститься у повідомленні, вимірюється ступенем зміни тезауруса (запасу знань) одержувача цього повідомлення.

У залежності від співвідношень між смисловим змістом інформації S і тезаурусом користува-ча Sp змінюється кількість семантичної інформації Ic, яка сприймається користувачем і включає-ться ним надалі у свій тезаурус, тобто Ic = f (Sp). Характер такої залежності показаний на рис. 4.2.

Рис. 4.2. Залежність кількості семантичної інформації, яка сприймається користувачем,

від його тезаурусу Розглянемо два граничних випадки, коли кількість семантичної інформації Ic дорівнює 0: – при Sp = 0 користувач не сприймає, не розуміє інформацію, що надходить; – при Sp = max користувач все знає, отже, інформація, що надходить, йому не потрібна.

Максимальну кількість семантичної інформації Ic споживач здобуває при узгодженні її смис-лового змісту S зі своїм тезаурусом Sp (Sp = Sp opt), коли інформація, яка надходить, зрозуміла користувачеві і несе раніше йому не відомі (тобто відсутні в його тезаурусі) відомості.

Отже, кількість семантичної інформації в повідомленні, кількість нових знань, одержуваних користувачем, є величиною відносною. Те саме повідомлення може мати смисловий зміст для компетентного користувача і бути безглуздим (семантичний шум) для користувача некомпетент-ного.

Page 18: Основи теорії інформації

18

4.4. Прагматичні концепції інформації Основу прагматичної аспекту дослідження інформації складає вивчення відношень між

знаками та їх споживачами з точки зору використання одержуваної інформації та впливу знаків на поведінку систем, тобто визначення цінності та корисності повідомлень. Під інформацією в праг-матичній теорії інформації розуміють лише ті відомості, які сприяють досягненню певної мети.

Одним з яскравих представників прагматичних теорій інформації є поведінкова модель комунікації – біхевіористська модель Акоффа-Майлса. Вихідним у цій моделі є цільова спрямо-ваність одержувача інформації на вирішення конкретної проблеми. Одержувач знаходиться в „цілеспрямованому стані”, якщо він прагне до чого-небудь і має альтернативні шляхи неоднакової ефективності для досягнення мети. Повідомлення, передане одержувачу, є інформативним (тобто несе інформацію), якщо воно змінює його „цілеспрямований стан”.

Тому що „цілеспрямований стан” характеризується послідовністю можливих дій (альтер-натив), ефективністю дії і значимістю результату, то передане одержувачеві повідомлення може впливати на всі три компоненти в різному ступені. Відповідно до цього передана інформація розрізняється за типами на таку, що „інформує”, „інструктує” та „мотивує”. Таким чином, для одержувача прагматична цінність повідомлення полягає в тому, що воно дозволяє йому намітити стратегію поведінки при досягненні мети побудовою відповідей на питання: що, як і чому робити на кожному черговому кроці? Для кожного типу інформації біхевіористська модель пропонує свою міру, а загальна прагматична цінність інформації визначається як функція різниці цих кількостей у „цілеспрямованому стані” до і після його зміни на новий „цілеспрямований стан”.

Наступним етапом у розвитку прагматичних теорій інформації були роботи американського логіка Д. Харраха, який побудував логіко-прагматичну модель комунікації. Одним зі недоліків біхевіористської моделі є її непідготовленість до оцінки помилкових повідомлень. Модель Харраха припускає врахування суспільного характеру людської комунікації. Відповідно до неї одержувані повідомлення повинні бути спочатку піддані обробці, після якої виділяються повідомлення „придатні до вживання”. Саме до сукупності придатних до вживання повідомлень повинні бути застосовані критерії прагматичної цінності.

Радянський вчений, академік Олександр Олександрович Харкевич (1904-65 рр.) пов’язував цінність інформації з можливістю її використання для досягнення певної мети. Цінність інформа-ції він запропонував виражати через збільшення імовірності досягнення мети до і після одержання інформації, спираючись при цьому на апарат класичної теорії інформації:

I = log (P1/P0) = log P1 – log P0, де P0 – ймовірність досягнення цілі до повідомлення, P1 – ймовірність досягнення цілі після повідомлення.

Інший підхід запропонував радянський вчений Михайло Мойсейович Бонгард (1924-71 рр.). Він вводить поняття „корисна інформація”, зв’язуючи повідомлення з тим, яку задачу вирішує одержувач, що він знає до приходу повідомлення і як його витлумачує. Він розглядає систему, що дістає інформацію, необхідну для рішення задачі, за допомогою ряду експериментів. При цьому цінність інформації визначається як різниця математичного очікування числа експериментів до і після одержання інформації. Цей підхід має ймовірносно-алгебраїчну сутність і носить більш загальний характер, чим підхід, запропонований О.Харкевичем.

Головною особливістю прагматичного підходу є розгляд інформації як характеристики не повідомлення, а співвідношення між повідомленням та його одержувачем. Без наявності спожи-вача, хоча б потенційного, говорити про інформацію немає сенсу.

Page 19: Основи теорії інформації

19

Тема №5 „Проблема передачі інформації” 5.1. Основні поняття та визначення 5.2. Система передачі інформації 5.3. „Ланцюжкова” модель передачі інформації

5.1. Основні поняття та визначення Інформація передається та зберігається у вигляді повідомлень. Повідомлення – це послідов-

ності, які будуються зі знаків або сигналів, які містять інформацію. Елементарне повідомлення складається з одного знаку або сигналу.

Алфавіт – це множина всіх знаків або сигналів, з яких може складатись повідомлення. Число знаків, з яких може складатись повідомлення, називається об’ємом алфавіту.

Знаки – це реальні матеріальні об’єкти, які можуть бути розпізнані одержувачем (літери, цифри, предмети тощо).

Сигнали – це динамічні процеси (тобто процеси, що змінюються у часі) або коливання певної величини будь-якої природи (напруга, світло, тиск, електромагнітні коливання тощо), які відображають повідомлення, яке передається.

Знаки частіше за все використовуються для збереження інформації, сигнали – для переносу інформації з однієї точки простору в іншу. В цьому випадку знакам однозначно зіставляють сиг-нали. Правило, за яким відбувається співставлення, називається правилом кодування, або кодом.

Оскільки сигнали служать для переносу інформації у просторі і часі, для їх утворення можуть використовуватись лише такі об’єкти, стани яких досить стійкі по відношенню до перебігу часу або до зміни положення у просторі. З цієї точки зору сигнали поділяють на два типи:

1. статичні сигнали – це сигнали, які є стабільними станами фізичних об’єктів (книга, фотографія, магнітний носій тощо).

2. динамічні сигнали – це сигнали, в якості яких використовуються динамічні стани силових полів. Такі сигнали характеризуються тим, що зміна їх стану не може бути локалізована у неізольованій частині поля та приведе до його поширення. Конфігурація такого змінного стану під час поширення має певну стійкість, що забезпечує збереження сигнальних властивостей (хвилі будь-якої природи: світло, звук, радіохвилі тощо).

Динамічні сигнали використовуються переважно для передачі інформації, а статичні – для її збереження.

Динамічний сигнал є функцією від часу: x = f(t). В залежності від того, які значення можуть приймати аргумент (час t) та рівні сигналу, сигнали поділяють на чотири типи:

1. Неперервні (аналогові) сигнали – визначені для всіх моментів часу і можуть приймати всі значення із заданого діапа-зону. Частіше всього фізичні процеси, які породжують сигнали, є неперервними (цим пояснюється друга назва сигналів даного типу – аналогові, тобто аналогічні процесам, які їх породжують).

2. Дискретизовані (дискретно неперервні) сигнали –

визначені лише в окремі моменти часу і можуть приймати будь-які значення рівня. Часовий інтервал Δt між сусідніми відліками називається кроком дискретизації. Часто такі сигнали називають дискретними за часом.

Page 20: Основи теорії інформації

20

3. Дискретні за рівнем або квантовані сигнали – визначені для всіх моментів часу і приймають лише дозволені значення рівнів, які відділені від один одного на величину кроку квантування Δx = xk+1 – xk

4. Дискретні за рівнем і за часом сигнали – визначені лише

в окремі дозволені моменти часу і можуть приймати лише дозво-лені значення рівнів.

Оскільки сигнали цього типу можна представити у цифровій формі, вони одержали також назву цифрових.

5.2. Система передачі інформації У процесі передачі інформації приймають участь відправник (джерело) інформації та її

одержувач, які використовують для інформаційного обміну певні технічні засоби. Разом вони утворюють систему передачі інформації, або систему зв’язку.

Найбільш відомою є система зв’язку, яку розробили американські інженери Клод Шеннон (Claude Shannon, 1916-2001 рр.) та Уоррен Уівер (Warren Weaver, 1894–1978 рр.). Розроблена для аналізу суто технічних процесів зв’язку, вона з успіхом застосовується і в нетехнічних сферах.

Рис. 5.1. Система зв’язку Шеннона-Уівера Вона складається з таких елементів:

1) Джерело повідомлень (an information source) – те, що створює повідомлення, або послі-довність повідомлень, які повинні бути передані.

2) Передавач (a transmitter) – переробляє повідомлення у сигнали, які можуть бути передані використовуваним каналом. Процес перетворення повідомлення в сигнал, здійснюваний у переда-вачі, називається кодуванням. Якщо перетворюється аналоговий сигнал у цифровий, то передавач має назву аналогово-цифровий перетворювач (АЦП, англ. ADC – analog/digital converter).

3) Канал (the channel) – це комплекс технічних засобів, що забезпечує передачу сигналів від передавача до приймача. До складу каналу входить каналоутворююча апаратура, яка здійснює сполучення вихідного і вхідного сигналів відповідно передавача і приймача з лінією зв’язку, та самої лінії зв’язку.

Лінією зв’язку називається середовище, яке використовується для передачі сигналу від передавача до приймача. Це може бути, наприклад: пари проводів, коаксіальний кабель, оптово-локонний кабель, область поширення радіохвиль тощо.

4) Приймач (the receiver) – виконує операцію зворотну стосовно операції, виконуваної передавачем, тобто відновлюється повідомлення по сигналах. Процес перетворення сигналу в

Page 21: Основи теорії інформації

21

повідомлення, здійснюваний у приймачі, називається декодуванням. Якщо перетворюється цифровий сигнал у аналоговий, то приймач має назву цифро-аналоговий перетворювач (ЦАП, англ. DAC – digital/analog converter).

5) Одержувач (the destination) – той, для якого призначене повідомлення.

6) У процесі передачі сигналу на нього впливає джерело шуму (noise source). Вплив джерела шуму призводить до того, що сигнал тією чи іншою мірою спотворюється, і, відповідно, переда-ний сигнал не дорівнює одержаному сигналу. Міра відповідності прийнятого повідомлення переданому називається вірністю передачі.

Для забезпечення точності одержання переданої інформації застосовуються два методи: 1) метод надмірності повідомлення – полягає у повторенні елементів повідомлення; 2) метод контрольних сум – полягає у передаванні разом із повідомленням т.зв. контрольних

сум, які обраховуються як сума всіх елементів повідомлення і за якими одержувач може переві-рити достовірність одержаного повідомлення.

КЛАСИФІКАЦІЯ СИСТЕМ ЗВ’ЯЗКУ 1. За напрямом передачі інформації:

– системи симплексного зв’язку (передача лише в одну сторону); – системи напівдуплексного зв’язку (почергова передача в ту й іншу сторону); – системи дуплексного зв’язку (передача в обидва боки).

2. За кількістю джерел повідомлень: – система одноканальної передачі (одне джерело і один одержувач); – багатоканальна (мультиплексна) система (багато джерел і одержувачів, які викорис-товують спільну лінію зв’язку).

3. За типом сигналів, що передаються: – системи передачі дискретних сигналів (дискретні системи); – системи передачі безперервних (аналогових) сигналів.

Дискретні системи працюють у дискретному режимі, безперервні – як у дискретному, так і в безперервному режимах.

Оскільки будь-яка система зв’язку характеризується використовуваним каналом, то анало-гічну класифікацію можна застосувати і до каналів зв’язку (наприклад, дискретний канал, неперервний канал тощо).

Однією з найважливіших характеристик каналу є швидкість передачі інформації – кількість інформації, яка доставляється одержувачу в одиницю часу.

R = I / T [біт / сек., бод]

де I – кількість інформації; T – час передачі інформації.

5.3. „Ланцюжкова” модель передачі інформації Більшість систем зв’язку фактично передбачають цілий ланцюжок процесів передач та

прийомів інформації (наприклад, мікрофон є одночасно і передавачем, і приймачем). Тому зви-чайну систему зв’язку можна поділити на менші, зв’язані між собою підсистеми. Внаслідок того, що елементи системи зв’язку можуть відігравати двояку роль, таку систему можна представити у виді деякої сукупності базисних елементів, кожний з яких являє собою т.зв. „чорний ящик”, який має вхід та вихід і призначений для виконання функції перетворення вхідного сигналу у вихідний.

Page 22: Основи теорії інформації

22

Рис. 5.2. Модель перетворювача Дане представлення підходить для передавача, що одержує сигнали від джерела і перетворює

їх для передачі по каналу зв’язку. Канал виконує іншу роль у процесі перетворення – він служить для фізичного переміщення сигналу в просторі і (що є менш важливим для даного визначення) найчастіше ослаблює сигнал. Приймач дуже часто виконує функцію, зворотну передавачеві. Радіоприймач, наприклад, перетворить електромагнітні сигнали в звукові, дуже схожі на ті, котрі спочатку надійшли в мікрофон. Якщо прийняти таке умовне представлення, то систему зв’язку Шеннона-Уівера можна представити у вигляді п’яти базисних елементів типу „чорного ящика”, з’єднаних послідовно:

Рис. 5.3. Процес зв’язку, представлений у вигляді послідовності перетворень Ця схема фактично не відрізняється від приведеної на рис. 5.1. Перевага такого зображення

полягає у тому, що воно дозволяє трактувати вхідні і вихідні сигнали будь-якої ланки системи зв’язку як повідомлення, що піддаються якомусь перетворенню, і не перейматись джерелами і адресатами повідомлень. Цей процес можна представити у виді одного з елементарних „чорних ящиків”, якщо припустити, що на його вхід подається безліч можливих сигналів, що перетворювач виконує функцію добору одного сигналу і відкидання всіх інших і що вихід являє собою відібране повідомлення.

Page 23: Основи теорії інформації

23

Тема №6 „Інформаційні взаємодії у природі” 6.1. Поняття та принципи інформаційної взаємодії у природі 6.2. Інформаційні взаємодії у неживій природі 6.3. Інформаційні взаємодії у найпростіших формах життя 6.4. Генетична інформація 6.5. Інформаційні взаємодії у складних формах життя

6.1. Поняття та принципи інформаційної взаємодії у природі У природі існує два фундаментальних види взаємодії: обмін речовиною та обмін енергією.

Фундаментальність цих видів взаємодії полягає в тому, що всі інші взаємодії відбуваються лише через їхнє посередництво. Ці види взаємодії підпорядковуються закону збереження: скільки речовини та енергії один об’єкт передав іншому, стільки той і одержав, і навпаки. Такі типи взаємодії називаються симетричними.

Водночас між об’єктами може відбуватися взаємодія більш високого порядку, під час якої від одного об’єкта до іншого переходить певна субстанція, і при цьому втрати одного не збігаються з придбанням іншого. Така взаємодія є несиметричною. У граничному випадку несиметричної взаємодії при передачі субстанції між об’єктами один з них її здобуває, а інший взагалі не втрачає.

Будь-яка взаємодія між об’єктами, у процесі якої один здобуває певну субстанцію, а інший її не втрачає, називається інформаційною взаємодією. При цьому субстанція, яка передається, називається інформацією.

Весь спектр інформаційних взаємодій у природі можна умовно поділити на два типи: 1. інформаційні взаємодії у неживій природі; 2. інформаційні взаємодії у живій природі, які, за особливостями інформаційних взаємодій, можна поділити на інформаційні взаємодії у простих формах життя та складних формах життя.

Основні принципи інформаційної взаємодії у живій та неживій природі: Перший. Інформаційна взаємодія має у своїй основі комплекс симетричних взаємодій, тобто

інформація між об’єктами переноситься за допомогою обміну речовиною або енергією. Форми речовини або енергії, за допомогою яких переноситься інформація, називаються інформаційними кодами, або коротко – кодами.

Другий. Інформаційна взаємодія може відбуватись лише за умови відповідності властивос-тей об’єктів, тобто сприйняття інформації на основі одержуваних кодів визначається через можли-вість її реалізації у відповідності з властивостями приймаючого об’єкта. Комплекс властивостей об’єкта, які дозволяють йому сприймати одержувані коди як певну інформацію, називається апаратом інтерпретації інформаційних кодів, або коротко – апаратом інтерпретації.

Третій. Інформація реалізується в приймаючому об’єкті через пов’язану з нею зміну його стану (внутрішніх або зовнішніх властивостей). Іншими словами, інформація сприяє переходу приймаючого об’єкта в однин з потенційно властивих йому станів, тобто вона є відповідною його властивостям. У широкому розумінні можна сказати, що інформація, яка приймається об’єктом, є для нього доцільною.

Четвертий. У живій природі, на відміну від неживої, інформаційна взаємодія має направле-ний характер, тобто передача інформації здійснюється цілеспрямовано. Принцип цілеспрямова-ності інформаційної взаємодії полягає у тому, що ця взаємодія є значимою для існування конкретного об’єкта, що передає інформацію, або для існування його виду.

6.2. Інформаційні взаємодії у неживій природі Всі об’єкти у природі складаються з елементарних часток, об’єднаних у певні структури.

Тому всі взаємодії між об’єктами зводяться до взаємодії елементарних часток і відбуваються за

Page 24: Основи теорії інформації

24

законами фізики мікросвіту. Ці елементарні взаємодії є цілком симетричними. Власне саме ці елементарні взаємодії і приводять до утворення різноманітних більш-менш стійких структур на основі елементарних часток. Ці структури починаючи з певного рівня стійкості вже можуть розглядатися як самостійні об’єкти.

Взаємодії цих об’єктів між собою складаються з великого числа взаємодій їхніх складових часток. Властивості цих сумарних взаємодій визначаються сукупністю властивостей їхніх часток і тієї структури, у яку вони об’єднані.

Прикладом примітивної інформаційної взаємодії у неживій природі є каталітична взаємодія. Воно полягає в тому, що один об’єкт, називаний каталізатором, змінює швидкість протікання хімічної реакції між групою інших об’єктів, називаних реагентами, після чого сам каталізатор залишається незмінним за всіма своїми властивостями. Цей процес можна представити як примітивну інформаційну взаємодію між каталізатором і реагентами, яка полягає у тому, що останні одержують від першого певну інформацію, яку вони реалізують у вигляді зміни їхньої власної взаємодії.

У неживій природі інформаційні процеси не виділені з енергетичних. Будь-яка нежива система приймає участь в інформаційному процесі „цілком”, всією своєю структурою. У неї немає спеціального органу, який би відповідав за інформаційну взаємодію.

6.3. Інформаційні взаємодії у найпростіших формах життя Радянський вчений, академік Олексій Андрійович Ляпунов (1911-73 рр.) запропонував таке

визначення: „життя – це високостійкий стан речовини, який використовує для виробки збері-гаючих реакцій інформацію, яка кодується станом окремих молекул”.

Використання поняття інформації в біології є цінним тому що дає можливість кількісної характеристики та, відповідно, кількісного порівняння інформаційних можливостей різних біоло-гічних видів. Наприклад, якщо інформаційний вміст найпростіших живих істот, одноклітинних організмів оцінюється в 1011 бітів, то організм дорослої людини містить близько 3*1025 бітів в молекулярному представленні, або 2*1028 в атомарному представленні. Яйцеклітина ссавця містить приблизно 6*109 бітів інформації.

Першою умовою, що відрізняє живу форму від неживої, є наявність у неї можливості від-творення інших форм, які будуть подібні їй самій за внутрішньою будовою і за видами взаємодій із зовнішнім середовищем. Для реалізації цієї можливості жива форма одержує із зовнішнього середовища речовину та енергію і перетворює них усередині себе, створюючи копії своїх елементів і організовуючи їх у структуру, де вони будуть взаємодіяти між собою так само, як вони взаємодіяли у вихідній формі. Ці дії означають постійну зміну внутрішнього стану живої форми при збереженні властивостей її взаємодії із зовнішнім середовищем.

Найпростіші форми життя можна поділити на два види: віруси та клітинні форми життя.

Механізм відтворення вірусів зводиться до того, що він, потрапляючи у певне середовище, змінює комплекс хімічних взаємодій, що відбуваються між її об’єктами таким чином, що в їх результаті відбувається синтез зрілих вірусних часток, з яких у визначених умовах утворяться інші такі ж віруси. Цей вид взаємодії вірусу із середовищем подібний каталітичній взаємодії, але має більш високий рівень складності. Реагентами цієї взаємодії є вже не прості хімічні молекули, а більш складні високомолекулярні з’єднання. Кодами, що переносять інформацію, служать уже не прості фізичні об’єкти та елементарні енергетичні впливи, а значно більш складні за складом і структурою їхні комплекси. Дія апарата інтерпретації кодів засновано тут на настільки складних комплексах дій хімічних законів, що часто вже не представляється можливим вивести чітку залежність одного від іншого. У цій взаємодії вже починають виявлятися біологічні закони як більш високі за рівнем складності, аніж хімічні.

Принциповою відмінністю клітинної форми життя від вірусної є поєднання у ній як у єдиній структурі всіх компонентів, взаємодія яких забезпечує відтворення іншої такої ж форми. Для забезпечення такої внутрішньої взаємодії компонентів клітини необхідна можливість взаємодії її

Page 25: Основи теорії інформації

25

як цілого з зовнішнім середовищем. Безпосередньо для існування і самовідтворення клітини їй необхідні лише такі симетричні взаємодії, у ході яких вона одержує з зовнішнього середовища речовину та енергію, які підтримують взаємодію її компонент.

Внутрішній механізм самовідтворення клітини полягає у наявності у клітині основного елементу, цілеспрямований інформаційний вплив якого на інші елементи приводить до побудови іншого такого ж елемента. Цей елемент вступає з іншими елементами клітини в такі інформаційні взаємодії, що направляють взаємодію між цими клітинами на створення всього комплексу елемен-тів клітини. Цей основний елемент клітини являє собою різновид молекули нуклеїнової кислоти, а саме, молекулу дезоксирибонуклеїнової кислоти (ДНК). ДНК складається з елементів, називаних нуклеотидами, окремі групи яких, беручи участь у різних інформаційних взаємодіях, організо-вують окремі етапи процесу відтворення клітини і у сукупності організують весь цей процес.

Жива клітина є майже замкнутим середовищем з погляду внутрішніх інформаційних взаємо-дій, що відбуваються в ній. Число їх достатньо обмежене, що дає можливість вивчати кожну з них окремо і всю їх взаємозалежну структуру в цілому.

Інформаційна взаємодія ДНК із будь-яким елементом клітині відбувається не через безпосередні симетричні взаємодії одного з іншим, а опосередковано через проміжні взаємодії з іншими елементами – молекулами рибонуклеїнової кислоти (РНК). При взаємодії з ДНК вони набувають таких властивостей, що при наступній їх взаємодії з іншими елементами клітини приводять до передачі їм такої інформації, яка вже безпосередньо реалізується у процесах підтримки життя або відтворення клітини.

Таким чином, коди, за допомогою яких здійснюється передача інформації від ДНК, не збігаються з кодами, за допомогою яких приймається інформація. Проміжний етап інформаційної взаємодії може бути розтягнутий у часі, і момент передачі інформації не збігається з моментом її одержання. Наявність цього проміжку і перекодування інформації створюють передумови для спотворення (у тому числі і втрати) інформації в процесі її переходу від одного об’єкта до іншого. Для клітини це чревате порушенням загальної стійкості її життєдіяльності і руйнуванням.

Для того щоб клітина зберігалась як вид протягом тривалого часу, повинний існувати меха-нізм захисту інформації від спотворень. Такий механізм може мати різну природу, але головне, що він повинен бути закладений і у властивостях самої переданої інформації.

Такою властивістю є надлишковість інформації. Вона може бути реалізована через просте повторення кодів або через коди, які мають здатність до самовідновлення. Самовідновлення кодів ґрунтується на тому, що в процесах передачі інформації приймають участь не лише коди, які безпосередньо несуть інформацію, але й додаткові, за якими при прийомі інформації перевіряється вірність основних кодів, і, якщо це необхідно і можливо, інформація реалізується в такий же спо-сіб, начебто коди не були спотворені. Власне, відновлюються не самі коди, а в припустимих межах спотворень і втрат зберігається інформація, яка ними переноситься.

На прикладі живої клітини можна розглянути ще один вид інформаційної взаємодії. ДНК клітини не тільки посилає інформацію іншим елементам клітини, але й одержує неї від них. Якщо розглянуту раніше передану інформацію можна назвати керуючою, то останню можна визначити як інформацію спостереження.

Цей вид інформації відіграє важливу роль для забезпечення стійкості існування клітини. Взаємодія клітини як об’єкта із середовищем спричиняє зміну станів окремих її елементів, і відпо-відна інформація надходить у ДНК. Реалізація такої інформації в зміні керуючих інформаційних впливів змушує клітину в цілому перейти в стан, який є найбільш адекватним для її збереження в даних умовах взаємодії із середовищем. Адекватна реакція клітини на стан зовнішнього середови-ща являє собою реалізацію одержуваної з зовнішнього середовища інформації. Механізм цієї реа-лізації заснований на зміні взаємодій елементів усередині клітини, у тому числі і інформаційних.

Апарат інтерпретації інформаційних кодів у клітин має безумовний та безпосередній харак-тер. Безумовність його полягає у тому, що однакові комбінації кодів завжди сприймаються кон-кретною клітиною як одна і та сама інформація, яка реалізується у тих самих діях. Безпосередність

Page 26: Основи теорії інформації

26

дії цього апарата полягає в майже негайній реалізації інформації. Клітина не може скільки-небудь довго зберігати прийняту інформацію і реалізовувати неї через деякий час. Етапи інтерпретації інформаційних кодів та реалізації отриманої інформації в клітині практично не розділяються. Апарат інтерпретації інформації одержуваної клітиною із зовнішнього середовища цілком і однозначно визначається структурою молекули ДНК (оскільки саме вона керує його побудовою) і передається від батьківської клітини до дочірньої через копію цієї ДНК. Він не змінюється протя-гом усього життя клітини і однаковий у всіх клітин одного виду.

6.4. Генетична інформація Генетична інформація – це одержувані від предків та закладені у спадкових структурах

організмів у виді сукупності генів програми про склад, будову та характер обміну речовин, які складають організм. Дякуючи тому, що такі структури передаються у спадок, стала можливою передача біологічно корисної інформації з покоління у покоління, поступове накопичення цінної інформації в процесі еволюції. Розроблена на цій основі теорія генетичної інформації являє собою сучасний етап розвитку генетики.

Відправною точкою послужило відкриття інформаційної ролі двох нуклеїнових кислот – ДНК (дезоксирибонуклеїнова кислота) та РНК (рибонуклеїнова кислота). Незважаючи на велику хімічну подібність молекул цих кислот, їх функції в передачі спадковості всередині клітини принципово різняться: ДНК є сховищем спадкових властивостей, носієм генетичної інформації, тоді як РНК є провідником цієї інформації, її молекули використовуються для синтезу молекул білка з відповідними властивостями.

Спадкова інформація (генетичний матеріал) у всіх рослин, тварин, мікроорганізмів та більшості вірусів представлена словами великої довжини в чотирилітерному алфавіті:

ATGGTTCGTTCTTAT…

Кожне таке слово являє собою полімерну молекулу ДНК, до складу якої входять чотири основи (нуклеотиди): A – аденін, C – цитозин, G – гуанін, T – тимін.

Природна молекула ДНК являє собою два полімерні ланцюги попарно з’єднаних нуклео-тидів, закручених у формі подвійної спіралі (модель Уотсона-Кріка):

ATGGTTCGT… TACCAAGCA…

Тобто інформація в молекулі ДНК записується надлишково – до кожного слова приписується його шаблон у додатковому коді. При цьому існують особливі водневі зв’язки A↔T та G↔C (комплементарність).

Дуже великі молекули ДНК упаковані в клітині у невеликому об’ємі. Загальна довжина ДНК хромосом людини (близько 109 нуклеотидів) упакована у ядрі діаметром менше 1 мікрометра (10-6 м).

Окремі відрізки (підслова) слова ДНК, які несуть смислове навантаження, називаються генами. Кожен ген кодує інформацію, відповідальну за створення певного білка. Середня довжина гена у людини приблизно 104 нуклеотидів (букв). Таким чином, у людини присутні близько 105 різних білків.

Шляхи переносу інформації, закодованої у ДНК, узагальнив англійський вчений Френсіс Харрі Комптон Крік (Francis Harry Compton Crick, р.н. 1916) у виді центральної догми молекуляр-ної біології:

Page 27: Основи теорії інформації

27

Рис. 6.1. Шляхи переносу генетичної інформації Існує три шляхи передачі генетичної інформації: реплікація, транскрипція та трансляція.

Реплікація (копіювання генетичної інформації) полягає у здатності ДНК до самовідтворення і лежить в основі розмноження живих організмів. Синтез ДНК відбувається із швидкістю близько 1000 нуклеотидів за секунду. Наприклад, вся ДНК бактерії (близько 107 нуклеотидів) відтво-рюється за 20 хвилин.

Транскрипція – процес синтезу інформаційної молекули РНК (іРНК) на матриці ДНК. У молекулі РНК також присутні чотири основи – аденін, цитозін, гуанін та урацил (U) замість тиміну.

Трансляція – процес синтезу білкової молекули на основі матриці іРНК.

Можливі також і особливі випадки переносу інформації: реплікація РНК, зворотна транскрипція від РНК до ДНК, прямий перенос інформації від ДНК у білок. Також „заборонений” перенос інформації від білків до нуклеїнових кислот. Це означає, що модифікація білків (генних продуктів) не успадковується.

Широке застосування та розвиток поняття спадкової інформації привело до появи у біології двох нових понять: інформація генотипу (закладена у спадковій основі організму) та інформація фенотипу (формується в процесі його індивідуального розвитку під впливом конкретних умов оточуючого середовища). Дослідження показали, що різниця у величині інформації генотипу та фенотипу складає не менш як три порядки (відповідно 105 – 106 та 102 бітів). Відповідно, побудова основних органів та систем організму практично цілком визначається інформацією генотипу.

6.5. Інформаційні взаємодії у складних формах життя Основною відмінністю багатоклітинних організмів від інших є поділ функцій окремих груп

клітин при взаємодії із середовищем. Поділ функцій клітин у їх спільній діяльності як цілого вимагає узгодження їхніх дій між собою. Це узгодження досягається комплексом керуючих та спостережних інформаційних взаємодій, які відбуваються між ними.

У найпростіших багатоклітинних такі інформаційні взаємодії здійснюються тими ж кліти-нами, які підтримують обмін речовиною та енергією із зовнішнім середовищем. Але вже на досить ранній стадії розвитку багатоклітинних форм мало місце ускладнення необхідного для їх існу-вання комплексу взаємодій із середовищем. Виникають клітини, які спеціалізуються на організації інформаційного обміну між іншими клітинами. Ці клітини називаються нейронами. Також виникає і функціональний поділ нейронів за їх участю у керуючих та спостережних внутрішніх інформаційних взаємодіях.

У найпростішому випадку інформаційна взаємодія організму із середовищем, заснована на участі у ній нейронів, будується через нервові (рефлекторні) дуги. Послідовність інформаційних

Page 28: Основи теорії інформації

28

взаємодій, які відбуваються в нервовій дузі між різними клітинами, утворює акт інформаційної взаємодії більш високого рівня, у якому об’єктом, що приймає інформацію, є вже сам організм.

Ускладнення багатоклітинних організмів у ході їх еволюції супроводжується ускладненням процесів їхньої інформаційної взаємодії із середовищем відповідно до необхідності підтримки широкого спектра їх симетричних взаємодій з цим середовищем, які забезпечують вже не стільки існування кожної клітини окремо, а існування організму в цілому. Ускладнення інформаційного обміну із середовищем забезпечується в організмі через ускладнення апарата інтерпретації інфор-маційних кодів. Його дія продовжує ґрунтуватись на діях нейронів, але вони вже взаємодіють між собою у більш складних структурах: нервових вузлах, нервових центрах і, нарешті, у спинному та головному мозку.

Складний акт інформаційної взаємодії організму із середовищем відбувається на основі ієрархічної побудови простих актів. Ієрархічна побудова окремих простих етапів інформаційних взаємодій забезпечує якісне перетворення спостережної інформації від того вигляду, у якому вона приймалася з зовнішнього середовища, до того вигляду, на основі якого ініціюється її реалізація.

Якісне перетворення інформації при її просуванні з нижніх ієрархічних рівнів обробки до верхнього полягає в її узагальненні. Узагальнення інформації – це перетворення інформації про наявність безлічі простих окремих подій в інформацію про наявність якоїсь події більш високого рівня, у яку ці окремі події входять як складові елементи. Необхідність узагальнення пов’язана, насамперед, з тим, що на будь-якому окремому етапі інформаційного обміну існує принципове обмеження кількості і різноманітності інформаційних кодів, з якими може працювати апарат інтерпретації того об’єкта, який приймає на цьому етапі інформацію.

Найпростіший механізм узагальнення може мати безумовний характер. Тобто однакові комбінації інформаційних кодів, що надходять з різних точок у нервовий вузол, центр або мозок, інтерпретуються в ньому детермінованим чином відповідно до його можливостей, які зали-шаються постійними протягом усього його існування. Відповідно на їх основі виникає одна і та сама узагальнена інформація.

Але у ході еволюції багатоклітинних організмів у них з’явився і став розвиватись апарат умовної інтерпретації інформації. Цей апарат реалізовується тільки на рівні досить розвиненого головного мозку, у якому взаємодіють мільйони і мільярди нейронів. Дія цього апарата інтерпре-тації полягає у тому, що нейрони після одержання та реалізації інформації не повертаються від-разу в стан цілком еквівалентний тому, який був до їх участі в інформаційній взаємодії, а певний час зберігають у собі його сліди. Крім того, повинні існувати інші нейрони, які приймають в узагальненому виді інформацію про стан перших і зберігають стан своїх елементів, обумовлений цією інформацією. Послідовний розвиток здатності до умовної інтерпретації інформаційних кодів, який відбувається протягом життя конкретного організму, означає настроювання його вродженого апарата інтерпретації на конкретні умови існування.

Для можливості умовної інтерпретації інформаційних кодів одночасно необхідно повинні мати місце кілька важливих факторів.

Перший з них – пам’ять. Пам’ять об’єкта – це зміни, які виникають в його апараті інтерпретації інформаційних кодів у результаті окремих актів інформаційних взаємодій об’єкта, і зберігаються певний час після завершення цих актів. Пам’ять використовується організмом у процесі зміни його інформаційної взаємодії із середовищем у напрямку, який забезпечує підви-щення доцільності взаємодій з цим середовищем.

Апарат інтерпретації, який володіє пам’яттю, може реалізовувати неї через імітацію інформації про подію, яку він ще не одержав, але можливо повинний одержати, виходячи з порції інформації, яка вже надійшла на даний момент, та її взаємозв’язків з надходженням інших порцій інформації в минулому. Така дія апарата інтерпретації являє собою прогнозування.

Прогнозування – це імітація одержання нової інформації на основі інформації, яка одер-жується у поточний момент, та її зіставлення із сукупністю інформації, яка надійшла раніше.

Page 29: Основи теорії інформації

29

Пам’ять кожного об’єкта завжди обмежена, а велика частина інформації, яка надходить, так і залишається невикористаною. При цьому загальна її кількість (з погляду інформаційних кодів, які її переносять), безумовно, перевищує можливості повного її запам’ятовування. Для запобігання переповнення пам’яті і, відповідно, втрати можливості її нормального функціонування обов’яз-ково повинний існувати механізм її очистки (забування), який дає можливість використовувати ті ж елементи пам’яті для запам’ятовування нової інформації. Механізм очистки пам’яті може бути реалізований, по-перше, на основі нестійкості збереження активних станів елементів пам’яті, за допомогою яких фіксується інформація; і, по-друге, за допомогою узагальнення інформації та збереженні вже узагальненої інформації. Це вимагає менше ресурсів пам’яті, хоча й при цьому має місце певна втрата деталізації.

Наприклад, кількість різноманітної інформації, яка надходить у мозок сучасної людини із зовнішнього світу, складає, як мінімум, 100 тисяч бітів за секунду. У той же час людина здатна усвідомлювати та використовувати, за різними оцінками, від 25 до 100 бітів за секунду. Тобто навіть в останньому випадку людина здатна сприймати лише тисячну долю інформації, що надходить. Тому мозок змушений безперервно здійснювати ретельний відбір інформації, фільтрувати її. Якщо він з цією задачею не справляється, надлишок інформації швидко виснажить нервову систему і стане причиною психічного захворювання.

В той же час виявлено, що якщо на свідомому рівні людина переробляє 102 бітів інформації за секунду, то на підсвідомому – 109 бітів за секунду.

Page 30: Основи теорії інформації

30

Тема №7 „Інформаційні революції” 7.1. Інформаційні революції та їх значення для розвитку цивілізації 7.2. Перша інформаційна революція 7.3. Друга інформаційна революція 7.4. Третя інформаційна революція 7.5. Четверта інформаційна революція

7.1. Інформаційні революції та їх значення для розвитку цивілізації Формування сучасного інформаційного суспільства стало результатом кількох інформацій-

них революцій, які відбулись в історії розвитку людської цивілізації, і які не лише кардинально змінювали способи обробки інформації, але й спосіб виробництва, стиль життя, системи цінностей:

– перша інформаційна революція пов’язана з появою писемності, уможливила передачу інформації, знань від покоління до покоління через її фіксацію в знаках та зруйнувала монополію вузького кола людей на знання;

– друга інформаційна революція була викликана винаходом та поширенням книгодруку-вання в XV ст. і розширила доступ до інформації широким верствам населення завдяки тиражування знань;

– третя інформаційна революція (кінець ХІХ ст.) пов’язана з винаходом електроенергії, завдяки якому з’явився телеграф, телефон, радіо, що дозволяло оперативно, у великих обсягах передавати і накопичувати інформацію, передавати звукові та візуальні образи на великі віддалі. Останнє створило передумови ефекту „стискання простору”;

– четверта інформаційна революція (70-ті роки ХХ ст.) зумовлена винаходом мікропроце-сорної технології і персонального комп’ютера. Вона характеризується переходом від механічних, електричних засобів перетворення інформації до електронних та створення програмного забезпечення цього процесу. „Вінцем” цієї революції є поява всесвітньої мережі Інтернет, що уможливило інформаційний обмін в глобальних масштабах.

Американський вчений Дуглас Робертсон (Douglas S. Robertson) стверджував, що „цивіліза-ція – це інформація” („Civilization is information”), і визначив такі рівні інформаційної ємності цивілізацій:

1) перехід от домовного періоду до мови (109 біт) – обсяг інформації, який циркулював всередині клану або племені;

2) виникнення писемності (1011 біт) – на цьому рівні показником інформованості є біб-ліотеки. Олександрійська бібліотека містила 532 800 сувоїв, якщо „Іліада” складалась із 24 сувоїв і містила 5 млн. біт інформації, то інформаційна ємність Олександрійської бібліотеки становила приблизно 100 млрд. біт (або 1011 біт);

3) винайдення книгодрукування (1017 біт) – на цьому рівні інформаційну ємність визначають сотні бібліотек та періодичні видання;

4) комп’ютери та комп’ютерні мережі (1025 біт) – на цьому рівні інформаційну ємність визна-чають інформаційні ресурси комп’ютерних мереж.

7.2. Перша інформаційна революція Виникненню писемності передували засоби, які слугували запам’ятовуванню усних повідом-

лень. До таких відносять предметне, вузликове та піктографічне письмо.

У предметному письмі засобами передачі змісту слугували різні предмети (наприклад, „вампум” – засіб запам’ятовування та передачі повідомлень у індійських племен Північної Америки. Зміст повідомлення виражався кольором, кількістю та взаєморозташуванням раковин).

Page 31: Основи теорії інформації

31

У вузликовому письмі засобами передачі змісту слугували мотузки із зав’язаними на них вузликами (наприклад, „кіпу” – вузликове письмо древніх перуанців, яке представляло собою мотузку, до якої був прив’язаний ряд різнокольорових шнурків з вузликами. Форма та кількість вузлів позначали числа, вузли різного кольору та по-різному розташовані мали різні умовні значення). Вузликове письмо набуло особливого поширення у скотарських племенах для обліку поголів’я стад.

У піктографічному (малюнковому) письмі повідомлення передавалось за допомогою малюн-ків (часто таких, які викликають зорові асоціації), які означають окремі предмети, дії, процеси тощо.

Писемність в її сучасному розумінні виникла в кінці IV – на початку III-го тисячоліття до н.е. в Єгипті та Месопотамії.

Узагальнюючи, виділяють два основні типи письма – ієрогліфічне та фонетичне. В ієроглі-фічному письмі кожний окремий знак означає слово чи словосполучення. У фонетичному письмі кожен символ означає окремий звук.

7.3. Друга інформаційна революція Друга інформаційна революція пов’язана із винаходом друкарського станку. Перші відомі

спроби книгодрукування були здійснені у 1041-48 рр. в Китаї (Бі Шен). В Європі книгодрукування виникло в середині XV ст. Близько 1440 р. складальний друк був винайдений Йоганном Гутенбергом (Gutenberg, бл.1399-1468 рр.), а друк першої книги – Біблії – був закінчений у 1456 році. Новий спосіб розповсюдився дуже швидко і ознаменував початок „ери Гутенберга”.

Перша книжка українського автора Юрія Котермака (Дрогобича) (бл.1450-1494 рр.) – відо-мого діяча Відродження, українського вченого, гуманіста, поета, доктора медицини та філософії, ректора Болонського університету, професора астрономії та медицини Краківського університету – була видана в 1483 році у Римі латинською мовою і мала назву „Прогностична оцінка поточного 1483 року”.

Перша друкована книга на теренах України – „Апостол” – видана у лютому 1574 р. Іваном Федоровим (бл.1510-83 рр.) у Львові. У тому ж році він випустив перший друкований підручник – „Азбуку”. У 1580-81 рр. в Острозі Іван Федоров видав першу повну слов’янську Біблію („Острозь-ка біблія”).

Винайдення друкарського станку пришвидшило процес створення книг, збільшило можли-вості доступу до них масового читача і розширило коло грамотних людей.

Поява книгодрукування спричинило величезний вплив на розвиток тогочасної європейської цивілізації. Вважається, що Ренесанс та його вплив на суспільство залежали не стільки від генія його представників, скільки від доступності інформації. Розповсюдження та зростання впливу Реформації були б неможливі без книгодрукування (наприклад, лише між 1517 та 1520 рр. тираж книг Мартіна Лютера досяг 300 тис.).

Винахід Гутенберга залишався практично не змінним до початку XIX ст. Створення у 1814 р. друкарської машини поклало початок сучасній поліграфії.

7.4. Третя інформаційна революція Третя інформаційна революція пов’язана із винаходом електричного струму та створених на

його основі комунікаційних приладів.

1832 р. – російський винахідник Павло Львович Шиллінг (1786-1837 рр.) створив електромаг-нітний телеграф.

1837 р. – американський художник та винахідник Семюел Фінлі Бріз Морзе (Morse, 1791-1872 рр.) винайшов електромеханічний телеграф, у 1838 р. розробив телеграфний код (азбука Морзе), в якому кожному знаку відповідає певна комбінація посилок електричного струму (крапок та тире). У 1844 році вдосконалені ним апарати були встановлені на першій американській теле-

Page 32: Основи теорії інформації

32

графній лінії Вашингтон-Балтімор. Перша телеграма мала такий зміст: „What hath god wrought!” (те, що Бог сотворив).

1876 р. – Олександр Грейам Белл (Bell, 1847-1922 рр.) отримав патент на перший телефон. Перша фраза, промовлена Олександром Беллом під час першого телефонного дзвінка 10 березня 1876 р., була звернена до його асистента, який знаходився у сусідній кімнаті: „Mr. Watson, come here; I want you” (підійдіть сюди, містере Ватсон; ви мені потрібні).

В Україні перша телефонна станція була відкрита у 1881 році в Одесі.

1877 р. – американський винахідник Томас Алва Едісон (Edison, 1847-1931 рр.) сконструював перший прилад для запису і відтворення звуку – фонограф. Звук записувався голкою, зв’язаною з мембраною, на циліндричному валику, обгорненому олов’яною фольгою. При виникненні коливань у мембрані голка вичерчувала на поверхні фольги канавку змінної глибини. Найперший звукозапис являв собою слова відомої англійської дитячої пісеньки „У Мері був баранчик”.

1895 р. – французький винахідник Луї Люм’єр (Lumiere, 1864-1948 рр.), за участі брата Огюста (1862-1954 рр.) створив апарат для зйомки і проектування „фотографій, що рухаються” – перший придатний до практичного використання кіноапарат, який одержав назву кінематографа. Перший публічний сеанс відбувся 28 грудня 1895 у підвалі „Гран-кафі” у Парижі. Першими філь-мами стали зняті братами сценки: „Вихід робітників з фабрики Люм’єр”, „Прибуття потяга”.

1895 р. – російський фізик і електротехнік Олександр Степанович Попов (1859-1905/06 рр.) змонтував перший у світі радіоприймач, за допомогою якого бездротовий радіозв’язок був здійс-нений на відстань 600 м, а в 1897 – на 5 км. На Заході винахідником радіо вважається італійський радіотехнік Гульельмо Марконі (Marconi, 1874-1937 рр.), який у 1898 організував зв’язок між сушею (селище біля Дувра) і невеликим судном, яке стояло на якорі на відстані 19 км від берега. У 1901 р. його радіосигнали, послані через Атлантичний океан, досягли берегів Північної Америки.

У 1906 році американець Р. Фессенден вперше зумів змодулювати та передати по радіо „живі” звуки – своєї скрипки та свого голосу, читаючого уривки з Євангелія.

Початком офіційного регулярного радіомовлення вважається 1920 рік, коли інженер американської компанії „Westinghouse Electric Corporation” Френк Конрад закінчив будівництво станції мовлення. Закінчення будівництва співпало з черговими президентськими виборами, і 2 листопада радіостанція „KDKA” в Пітсбурзі (штат Пенсільванія) оголосила про перемогу Уоррена Г. Хардінга (Warren G. Harding). Близько 1000 слухачів могли приймати першу радіопередачу новин.

В Україні перша радіостанція була відкрита у 1924 році у Харкові.

1898 р. – датчанин Вальдемар Паульсен (Poulsen, 1869-1942 рр.) винайшов перший магніто-фон, який він називав „телеграфоном”, у якому, на відміну від сучасних магнітофонів, запис звуку вироблялася не на феромагнітну стрічку (вона з’явилась в 1928 році, а набутила комерційного застосування лише в 1950 році), а на сталевий дріт.

Перші спроби з’єднати зображення та звук на кіноплівці починалися ще Едісоном у 1899 році і Гомоном у 1906 році за допомогою спеціальних грамофонних пластинок, однак тільки винахід і удосконалювання методів запису на одному носії звуку і зображення проклали дорогу звуковому кіно. Перший звуковий фільм з’явився в США в 1924 році. У радянській Росії розроблялися 2 системи оптичного запису звуку. Робота системи Шоріна була продемонстрована в 1929 році, а системи „Тагефон” у 1931 році в кінофільмі „Путівка в життя”.

У 1951 році 25 червня було показана перша кольорова комерційна телепередача. Компанія CBS знімала в Нью-Йорку чотиригодинне шоу Артура Годфрі (найцікавіше, що у телеглядачів тоді ще не було кольорових телевізорів). У 1967 році відбувся перший показ телепередачі в прямому ефірі у всесвітньому масштабі.

Регулярні телепередачі почались у 1936 році у Великобританії та Німеччині, у 1939 році в СРСР (в Москві та Ленінграді), у 1941 році у США.

Page 33: Основи теорії інформації

33

До Великої Вітчизняної війни у столиці України існувало так зване механічне телебачення, яке працювало за допомогою “диска Ніпкова”. Історія повоєнного телебачення в Україні почи-нається 6 листопада 1951 року першою офіційною передачею – демонстрацію художнього фільму „Велика заграва”.

7.5. Четверта інформаційна революція Четверта інформаційна революція пов’язана із винаходом комп’ютерів та комп’ютерних

мереж.


Recommended