Informații de măsurare semantică. Mod semantic de măsurare a informațiilor: esență, concepte de bază și proprietăți

NIVELURI DE PROBLEME DE TRANSMISIE A INFORMAȚIILOR

La implementare procesele informaţionale Există întotdeauna un transfer de informații în spațiu și timp de la sursa de informații la receptor (destinatar). În acest caz, diferite semne sau simboluri sunt folosite pentru a transmite informații, de exemplu, limbajul natural sau artificial (formal), permițându-i să fie exprimat într-o formă numită mesaj.

Mesaj- o formă de reprezentare a informațiilor sub forma unui set de semne (simboluri) utilizate pentru transmitere.

Un mesaj ca set de semne din punctul de vedere al semioticii (din greacă. semeion - semn, atribut) - o știință care studiază proprietățile semnelor și sistemelor de semne - poate fi studiată la trei niveluri:

1) sintactic, unde sunt luate în considerare proprietățile interne ale mesajelor, adică relațiile dintre semne, reflectând structura unui sistem de semne dat. Proprietăți externe studiat la nivel semantic și pragmatic;

2) semantic, unde se analizează relațiile dintre semne și obiectele, acțiunile, calitățile pe care le denotă, adică conținutul semantic al mesajului, relația acestuia cu sursa de informații;

3) pragmatic, unde se ia în considerare relația dintre mesaj și destinatar, adică conținutul de consum al mesajului, relația acestuia cu destinatarul.

Astfel, ținând cont de o anumită relație între problemele de transmitere a informațiilor și nivelurile studierii sistemelor de semne, acestea sunt împărțite în trei niveluri: sintactic, semantic și pragmatic.

Probleme nivel sintactic privesc crearea fundamentelor teoretice pentru construirea sisteme informatice, ai căror principali indicatori de performanță ar fi aproape de maximum posibil, precum și îmbunătățirea sistemele existenteîn scopul îmbunătăţirii eficienţei utilizării acestora. Acestea sunt probleme pur tehnice de îmbunătățire a metodelor de transmitere a mesajelor și purtătorii lor materiale - semnale. La acest nivel, ei consideră problemele livrării mesajelor către destinatar ca un set de caractere, ținând cont de tipul de suport și metoda de prezentare a informațiilor, viteza de transmitere și procesare, dimensiunea codurilor de prezentare a informațiilor, fiabilitatea și acuratețea conversiei acestor coduri etc., făcând abstracție completă de conținutul semantic al mesajelor și scopul lor vizat. La acest nivel, informația considerată doar din perspectivă sintactică se numește de obicei date, deoarece latura semantică nu contează.

Teoria modernă a informației studiază în principal problemele de la acest nivel. Se bazează pe conceptul de „cantitate de informații”, care este o măsură a frecvenței de utilizare a semnelor, care nu reflectă în niciun caz nici semnificația, nici importanța. mesajele transmise. În acest sens, se spune uneori că teoria informației modernă este la nivel sintactic.

Probleme nivel semantic asociat cu formalizarea și luarea în considerare a sensului informatiile transmise, determinând gradul de corespondență dintre imaginea obiectului și obiectul însuși. Pe acest nivel se analizează informația pe care o reflectă informația, se examinează conexiunile semantice, se formează concepte și idei, se dezvăluie sensul și conținutul informației și se realizează generalizarea acesteia.

Problemele la acest nivel sunt extrem de complexe, întrucât conținutul semantic al informației depinde mai mult de destinatar decât de semantica mesajului prezentat în orice limbă.

Pe nivel pragmatic interesat de consecințele primirii și utilizării acestor informații de către consumator. Problemele de la acest nivel sunt asociate cu determinarea valorii și utilității utilizării informațiilor atunci când consumatorul dezvoltă o soluție pentru a-și atinge scopul. Principala dificultate aici este că valoarea și utilitatea informațiilor pot fi complet diferite pentru diferiți destinatari și, în plus, depinde de o serie de factori, cum ar fi, de exemplu, oportunitatea livrării și utilizării acesteia. Cerințe mariîn raport cu viteza de livrare a informaţiei sunt adesea dictate de faptul că acţiunile de control trebuie efectuate în scară reală timp, adică cu rata de schimbare a stării obiectelor sau proceselor gestionate. Întârzierile în livrarea sau utilizarea informațiilor pot avea consecințe catastrofale.

Informații și date

Termen informaţii provine din latinescul informatio, care înseamnă clarificare, informare, prezentare. Din poziţia filozofiei materialiste, informaţia este o reflecţie lumea reală folosind informații (mesaje).

Un mesaj este o formă de prezentare a informațiilor sub formă de vorbire, text, imagini, date digitale, grafice, tabele etc. Într-un sens larg, informația este un concept științific general care include schimbul de informații între oameni, schimbul de semnale între natura vie și cea neînsuflețită, oameni și dispozitive. Informaţii

- informatii despre obiectele si fenomenele mediului inconjurator, parametrii, proprietatile si starea acestora, care reduc gradul de incertitudine si cunoasterea incompleta a acestora. Informatica considera informatia ca informatie interconectata conceptual, date, concepte care ne schimba ideile despre un fenomen sau obiect din lumea inconjuratoare. Alături de informație, conceptul este adesea folosit în informatică. date

Să arătăm cum diferă.

Datele pot fi considerate semne sau observații înregistrate care din anumite motive nu sunt folosite, ci doar stocate. Când devine posibilă utilizarea acestor date pentru a reduce incertitudinea cu privire la ceva, datele se transformă în informații. Prin urmare, se poate susține că informațiile sunt datele utilizate.

Exemplul 2.1.

Scrie zece numere de telefon într-o succesiune de zece numere pe o foaie de hârtie și arată-le prietenului tău. El va percepe aceste numere ca date, deoarece nu îi oferă nicio informație Apoi, lângă fiecare număr, indicați numele companiei și tipul de activitate. Pentru prietenul tău, numerele de neînțeles vor câștiga certitudine și se vor transforma din date în informații pe care le-ar putea folosi în viitor. Unul dintre cele mai importante tipuri de informații este informația economică. Ei trăsătură distinctivă

- conectarea cu procesele de conducere a echipelor de oameni si organizatii. Informațiile economice însoțesc procesele de productie

Când lucrați cu informații, există întotdeauna o sursă și un consumator (destinatar). Sunt denumite căile și procesele care asigură transmiterea mesajelor de la sursa de informații către consumatorul acesteia comunicaţii informaţionale.

Pentru consumatorul de informații este foarte caracteristică importantă este adecvarea acestuia.

Adecvarea informațiilor- acesta este un anumit nivel de corespondență a imaginii create cu ajutorul informațiilor primite cu un obiect, proces, fenomen real etc.

ÎN viata reala Cu greu este posibilă o situație în care poți conta pe adecvarea completă a informațiilor. Există întotdeauna un anumit grad de incertitudine. Corectitudinea luării deciziilor umane depinde de gradul de adecvare a informațiilor la starea reală a unui obiect sau proces.

Exemplul 2.2. Ați terminat cu succes școala și doriți să vă continuați studiile în economie. După ce vorbești cu prietenii, vei afla că o pregătire similară poate fi obținută la diferite universități. În urma unor astfel de conversații, primiți informații foarte contradictorii care nu vă permit să luați o decizie în favoarea unei opțiuni sau alteia, adică. informațiile primite sunt inadecvate stării reale a lucrurilor. Pentru a obține informații mai fiabile, cumperi un ghid pentru solicitanții la universități, de la care primești informații cuprinzătoare. În acest caz, putem spune că informațiile pe care le-ați primit din director reflectă în mod adecvat domeniile de studiu la universități și vă ajută să faceți alegerea finală.

FORME DE ADECVARE A INFORMAȚIILOR

Adecvarea informaţiei poate fi exprimată în trei forme: semantică, sintactică, pragmatică.

Adecvarea sintactică. Afișează caracteristicile formale și structurale ale informațiilor și nu afectează conținutul semantic al acesteia. La nivel sintactic, se ține cont de tipul suportului și metoda de prezentare a informațiilor, viteza de transmitere și procesare, dimensiunea codurilor pentru prezentarea informațiilor, fiabilitatea și acuratețea conversiei acestor coduri etc. Informația considerată doar dintr-o poziție sintactică se numește de obicei date, deoarece latura semantică nu contează. Această formă contribuie la perceperea caracteristicilor structurale externe, adică. latura sintactică a informaţiei.

Adecvarea semantică (noțională).. Această formă determină gradul de corespondență dintre imaginea obiectului și obiectul însuși. Aspectul semantic presupune luarea în considerare a conținutului semantic al informației. La acest nivel se analizează informația pe care o reflectă informația și se iau în considerare conexiunile semantice. În informatică se stabilesc conexiuni semantice între codurile de reprezentare a informaţiei.

Această formă servește la formarea conceptelor și ideilor, la identificarea sensului, conținutului informațiilor și generalizării acesteia.. Adecvarea pragmatică (consumator). Ea reflectă relația dintre informație și consumatorul acesteia, corespondența informațiilor cu scopul de management, care este implementat pe baza acesteia. Proprietățile pragmatice ale informațiilor apar numai dacă există unitate de informație (obiect), utilizator și scop de management. Aspectul pragmatic al considerației este asociat cu valoarea, utilitatea utilizării informațiilor atunci când consumatorul dezvoltă o soluție pentru a-și atinge scopul. Din acest punct de vedere, sunt analizate proprietățile de consum ale informațiilor. Această formă de adecvare este direct legată de

utilizare practică

informații, cu respectarea acesteia cu funcția țintă a sistemului.

MĂSURI DE INFORMARE Clasificarea măsurilor Pentru măsurarea informațiilor se introduc doi parametri: cantitatea de informații euși volumul de date .

V

d

Acești parametri au expresii și interpretări diferite în funcție de forma de adecvare luată în considerare. Fiecare formă de adecvare corespunde propriei sale măsurători a cantității de informații și a volumului de date (Fig. 2.1).

Orez. 2.1. Măsuri de informare

Măsura sintactică a informațiilorAceastă măsură a cantității de informații operează cu informații impersonale care nu exprimă o relație semantică cu obiectul.. Volumul datelor

Vd într-un mesaj este măsurată prin numărul de caractere (biți) din acest mesaj. În diferite sisteme de numere, o cifră are o greutate diferită și unitatea de măsură a datelor se modifică în consecință: V sistem binar notatie unitate de masura - bit

(bit - cifră binară - cifră binară);

Vd Nota.În calculatoarele moderne, împreună cu unitatea minimă de măsură a datelor „bit”, unitatea de măsură mărită „octet”, egală cu 8 biți, este utilizată pe scară largă.

sistem zecimal unitatea de măsură de notație este dit (locul zecimal). Exemplul 2.3. Mesaj în sistem binar ca pe opt biți eu cod binar

10111011 are volum de date eu d=8 biți.

Un mesaj în sistemul zecimal sub forma unui număr de șase cifre 275903 are un volum de date- la nivel sintactic este imposibil de determinat fără a lua în considerare conceptul de incertitudine a stării sistemului (entropia sistemului).

Într-adevăr, obținerea de informații despre un sistem este întotdeauna asociată cu o modificare a gradului de ignoranță a destinatarului cu privire la starea acestui sistem. Să luăm în considerare acest concept.

Lăsați consumatorului să aibă câteva informații preliminare (a priori) despre sistem a înainte de a primi informații. Măsura ignoranței sale asupra sistemului este funcția H(a), care servește, în același timp, ca măsură a incertitudinii stării sistemului. După ce a primit un mesaj b, destinatarul a dobândit ceva Informații suplimentare

Ib(a), care i-a redus ignoranța a priori astfel încât incertitudinea a posteriori (după primirea mesajului b) a stării sistemului a devenit Hb(a).

Apoi cantitatea de informații Ib(a) despre sistemul primită în mesajul b va fi determinată ca

Ib(a)=H(a)-Hb(a),

aceste. cantitatea de informaţie este măsurată printr-o modificare (reducere) a incertitudinii stării sistemului. Dacă incertitudinea finală Hb(a) devine zero, atunci cunoștințele inițiale incomplete vor fi înlocuite cunoastere deplina și cantitatea de informații Ib(a)=H(a). Cu alte cuvinte, entropia sistemului

H(a) poate fi privit ca o măsură a informațiilor lipsă. Entropia unui sistem H(a) având N stări posibile , conform formula lui Shannon

, este egal cu: UndeR - i

probabilitatea ca sistemul să fie în starea i-a. Pentru cazul în care toate stările sistemului sunt la fel de probabile, i.e. probabilitățile lor sunt egale 1Pi=/N

, entropia sa este determinată de relația Adesea, informațiile sunt codificate cu coduri numerice într-unul sau altul sistem numeric, acest lucru este valabil mai ales atunci când se prezintă informații pe un computer. Desigur, același număr de cifre în sisteme diferite

notația poate transmite un număr diferit de stări ale obiectului afișat, care poate fi reprezentat ca un raport= N,

, este egal cu: notația poate transmite un număr diferit de stări ale obiectului afișat, care poate fi reprezentat ca un raport m n

-numărul tuturor stărilor posibile afișate; T -

baza sistemului numeric (varietatea de simboluri utilizate în alfabet); p -

numărul de biți (caractere) din mesaj. Exemplul 2.4. Dar un mesaj pe n biți este transmis către canalul de comunicație folosind T diferite simboluri. Din moment ce numărul tuturor posibil combinații de coduri notația poate transmite un număr diferit de stări ale obiectului afișat, care poate fi reprezentat ca un raport= N, voinţă Clasificarea măsurilor= atunci, dacă vreuna dintre ele este la fel de probabil să apară, cantitatea de informații dobândite de abonat ca urmare a primirii mesajului va fi= logN - logm

Formula lui Hartley. Dacă luăm ca bază a logaritmului T, Clasificarea măsurilor= . n ÎN cantitatea de informații (cu condiția necunoașterii complete a priori de către abonat a conținutului mesajului) va fi egală cu volumul de date Clasificarea măsurilor= eud, primite prin canal de comunicare. Pentru stările neuniforme ale sistemului, întotdeauna Clasificarea măsurilor< eud= .

Cele mai utilizate sunt logaritmii binari și zecimali. Unitățile de măsură în aceste cazuri vor fi bit și, respectiv, dit.

Coeficient(gradul) conținutului informațional(concizia) unui mesaj este determinată de raportul dintre cantitatea de informații și cantitatea de date, adică

Mai mult, 0

Cu crestere Y cantitatea de muncă pentru transformarea informațiilor (datelor) din sistem este redusă. Prin urmare, se străduiesc să crească conținutul informațional, pentru care se dezvoltă metode speciale de codificare optimă a informațiilor.

Informații de măsurare semantică

Pentru a măsura conținutul semantic al informațiilor, i.e. cantitatea sa la nivel semantic, cea mai recunoscută este măsura tezaurului, care leagă proprietățile semantice ale informațiilor cu capacitatea utilizatorului de a accepta mesajul primit. În acest scop este folosit conceptul tezaurul utilizatorului.

Tezaur este o colecție de informații disponibile unui utilizator sau unui sistem.

În funcţie de relaţia dintre conţinutul semantic al informaţiei Sși tezaurul utilizatorului S p cantitatea de informații semantice se modifică IC, perceput de utilizator și inclus ulterior de acesta în tezaurul său. Natura acestei dependențe este prezentată în Fig. 2.2. Să luăm în considerare două cazuri limitative când cantitatea de informații semantice IC este egal cu 0:

la S p 0 utilizatorul nu percepe sau înțelege informațiile primite;

la Sp; utilizatorul știe totul, dar nu are nevoie de informațiile primite.

Orez. 2.2. Dependența cantității de informații semantice. perceput de consumator, din tezaurul său Clasificarea măsurilorc= f(Sp)

Cantitatea maximă de informații semantice IC consumatorul dobândeşte prin acordul asupra conţinutului său semantic S cu tezaurul tău S p (S p = S p opt), atunci când informațiile primite sunt de înțeles utilizatorului și îi oferă acestuia informații necunoscute anterior (nu în tezaurul său).

În consecință, cantitatea de informații semantice dintr-un mesaj, cantitatea de cunoștințe noi primite de utilizator, este o valoare relativă. Același mesaj poate avea conținut semnificativ pentru un utilizator competent și poate fi lipsit de sens (zgomot semantic) pentru un utilizator incompetent.

Atunci când se evaluează aspectul semantic (conținut) al informațiilor, este necesar să se depună eforturi pentru armonizarea valorilor SŞi S p.

O măsură relativă a cantității de informații semantice poate fi coeficientul de conținut CU, care este definit ca raportul dintre cantitatea de informații semantice și volumul acesteia:

Măsura pragmatică a informațiilor

Această măsură determină utilitatea informațiilor (valorii) pentru ca utilizatorul să își atingă scopul. Această măsură este, de asemenea, o valoare relativă, determinată de particularitățile utilizării acestor informații într-un anumit sistem. Este recomandabil să se măsoare valoarea informației în aceleași unități (sau aproape de acestea) în care se măsoară funcția obiectiv.

Exemplul 2.5.Într-un sistem economic, proprietățile pragmatice (valoarea) informațiilor pot fi determinate de creșterea efectului economic al operațiunii realizată prin utilizarea acestor informații pentru a gestiona sistemul:

Clasificarea măsurilorb(g)= P(g / b)- P(g),

, este egal cu: Clasificarea măsurilorb(g) -valoarea mesajului informativ b pentru sistemul de control g,

P(g) - efectul economic așteptat a priori al funcționării sistemului de control g ,

P(g / b) - efectul așteptat al funcționării sistemului g, cu condiția ca informațiile conținute în mesajul b să fie utilizate pentru control.

Pentru comparație, prezentăm măsurile de informare introduse în Tabelul 2.1.

Tabelul 2.1. Unități de informare și exemple

Măsurarea informațiilor
Unități de măsură

Exemple
(pentru zona computerelor)

Sintactic:

se apropie de Shannon

abordare computerizată

Gradul de reducere a incertitudinii

Unități de prezentare a informațiilor

Probabilitatea evenimentului

Biți, octeți etc.

Semantic

Tezaur

Indicatori economici

Pachetul de aplicații software, computer personal, rețele de calculatoare etc.

Rentabilitatea, productivitatea, rata de amortizare etc.

Pragmatic

Valoare de utilizare

Capacitatea memoriei, performanța computerului, viteza de transfer de date etc.

Timp pentru procesarea informațiilor și luarea deciziilor

CALITATEA INFORMAȚIILOR

Posibilitatea și eficacitatea utilizării informațiilor sunt determinate de nevoile de bază ale consumatorilor: indicatori de calitate, ca reprezentativitate, semnificație, suficiență, accesibilitate, relevanță, actualitate, acuratețe, fiabilitate, durabilitate.

  • Reprezentativitatea informația este asociată cu corectitudinea selecției și formării sale pentru a reflecta în mod adecvat proprietățile obiectului. Cele mai importante lucruri aici sunt:
  • corectitudinea conceptului pe baza căruia este formulat conceptul inițial;
  • validitatea selecției trăsăturilor și conexiunilor esențiale ale fenomenului afișat.
  • Încălcarea reprezentativității informațiilor duce adesea la erori semnificative.
  • Conţinut informația reflectă capacitatea semantică egală cu raportul dintre cantitatea de informații semantice dintr-un mesaj și volumul de date procesate, adică C=Ic/Vd.

Pe măsură ce conținutul informațiilor crește, debitul semantic al sistemului informațional crește, deoarece pentru a obține aceeași informație este necesară convertirea unei cantități mai mici de date.

Alături de coeficientul de conținut C, care reflectă aspectul semantic, puteți utiliza și coeficientul de conținut informațional, caracterizat prin raportul dintre cantitatea de informații sintactice (după Shannon) și cantitatea de date. Y=I/Vd.

  • Suficiență (completitudine) informația înseamnă că conține o compoziție minimă, dar suficientă (set de indicatori) pentru a lua decizia corectă.
  • Conceptul de completitudine a informațiilor este asociat cu conținutul ei semantic (semantică) și pragmatică. Ca incomplet, i.e. Informațiile insuficiente pentru a lua decizia corectă, iar informațiile redundante reduc eficacitatea deciziilor luate de utilizator. Disponibilitate
  • informarea la percepția utilizatorului este asigurată prin implementarea unor proceduri adecvate pentru achiziția și transformarea acesteia. De exemplu, într-un sistem informațional, informațiile sunt transformate într-o formă accesibilă și ușor de utilizat. Acest lucru se realizează, în special, prin coordonarea formei sale semantice cu tezaurul utilizatorului.
  • Relevanţă informaţia este determinată de gradul de păstrare a valorii informaţiei pentru management la momentul utilizării acesteia şi depinde de dinamica modificărilor caracteristicilor acesteia şi de intervalul de timp care a trecut de la apariţia acestor informaţii.
  • Promptitudine informația înseamnă sosirea acesteia cel târziu într-un moment predeterminat în timp, în concordanță cu momentul rezolvării sarcinii.
  • Precizie
  • informaţia este determinată de gradul de apropiere a informaţiei primite de starea reală a obiectului, procesului, fenomenului etc.
  • Pentru informațiile afișate printr-un cod digital, sunt cunoscute patru concepte de clasificare a preciziei:
  • precizie formală, măsurată prin valoarea unitară a cifrei celei mai puțin semnificative a unui număr;

acuratețea reală, determinată de valoarea unității ultimei cifre a numărului, a cărei acuratețe este garantată; informația este determinată de proprietatea sa de a reflecta obiectele din viața reală cu acuratețea necesară.

Fiabilitatea informațiilor este măsurată prin probabilitatea de încredere a acurateței cerute, adică probabilitatea ca valoarea unui parametru afișat prin informații să difere de valoarea reală a acestui parametru în cadrul preciziei cerute. Sustenabilitate

informația reflectă capacitatea sa de a răspunde la modificările datelor sursă fără a încălca acuratețea necesară. Stabilitatea informației, precum și reprezentativitatea, este determinată de metodologia aleasă pentru selecția și formarea acesteia.

În concluzie, trebuie remarcat că asemenea parametri ai calității informației precum reprezentativitatea, conținutul, suficiența, accesibilitatea, sustenabilitatea sunt în întregime determinați la nivelul metodologic al dezvoltării sistemelor informaționale. Parametrii de relevanță, promptitudine, acuratețe și fiabilitate sunt, de asemenea, determinați într-o mai mare măsură la nivel metodologic, dar valoarea lor este influențată semnificativ de natura funcționării sistemului, în primul rând de fiabilitatea acestuia. În același timp, parametrii de relevanță și acuratețe sunt strict legați de parametrii de actualitate și, respectiv, de fiabilitate.

SUS

Tema 2. Bazele reprezentării și procesării informațiilor într-un computer

Literatură

1. Informatică în economie: manual/Ed. FI. Odintsova, A.N. Romanova. – M.: Manual universitar, 2008.

2. Informatică: Curs de bază: Manual/Ed. S.V. Simonovici. – Sankt Petersburg: Peter, 2009.

3. Informatica. Curs general: Manual/Coautor: A.N. Guda, M.A. Butakova, N.M. Nechitailo, A.V. Cernov; Sub general ed. V.I. Kolesnikova. – M.: Dashkov și K, 2009.

4. Informatică pentru economiști: Manual/Ed. Matyushka V.M. - M.: Infra-M, 2006.

5. Informatica economica: Introducere in analiza economica a sistemelor informatice - M.: INFRA-M, 2005.

Măsuri ale informațiilor (sintactice, semantice, pragmatice) Pentru măsurarea informațiilor pot fi utilizate diverse abordări, dar cele mai utilizate sunt statistic (probabilistic), semantic și p pragmatic

metode. Statistic Metoda (probabilistă) de măsurare a informațiilor a fost dezvoltată de K. Shannon în 1948, care a propus să se considere cantitatea de informații ca o măsură a incertitudinii stării sistemului, care este eliminată ca urmare a primirii informațiilor. Expresia cantitativă a incertitudinii se numește entropie. Dacă, după primirea unui anumit mesaj, observatorul a dobândit informații suplimentare despre sistem atunci incertitudinea a scăzut. Cantitatea suplimentară de informații primite este definită ca:

unde este cantitatea suplimentară de informații despre sistem X, primit sub forma unui mesaj;

Incertitudinea inițială (entropia) a sistemului X;

Incertitudine finită (entropie) a sistemului X, care apar după primirea mesajului.

Dacă sistemul X poate fi într-una dintre stările discrete, al căror număr , iar probabilitatea de a găsi sistemul în fiecare dintre ele este egală și suma probabilităților tuturor stărilor este egală cu unu, apoi entropia este calculată folosind formula lui Shannon:

unde este entropia sistemului X;

O- baza logaritmului, care determină unitatea de măsură a informaţiei;

– numărul de stări (valori) în care se poate afla sistemul.

Entropia este o mărime pozitivă și, deoarece probabilitățile sunt întotdeauna mai mici decât unu, iar logaritmul lor este negativ, prin urmare semnul minus din formula lui K. Shannon face ca entropia să fie pozitivă. Astfel, aceeași entropie, dar cu semnul opus, este luată ca măsură a cantității de informații.

Relația dintre informație și entropie poate fi înțeleasă astfel: obținerea de informații (creșterea acesteia) simultan înseamnă reducerea ignoranței sau a incertitudinii informaționale (entropie)

Astfel, abordarea statistică ține cont de probabilitatea apariției mesajelor: mesajul care este mai puțin probabil este considerat mai informativ, i.e. cel mai putin asteptat. Cantitatea de informații atinge valoarea maximă dacă evenimentele sunt la fel de probabile.

R. Hartley a propus următoarea formulă pentru măsurarea informațiilor:

I=log2n ,

, este egal cu: - numărul de evenimente la fel de probabile;

Clasificarea măsurilor– o măsură a informațiilor dintr-un mesaj despre apariția unuia dintre evenimentelor

Măsurarea informației este exprimată în volumul acesteia. Cel mai adesea, aceasta se referă la cantitatea de memorie a computerului și cantitatea de date transmise prin canalele de comunicare. O unitate este considerată cantitatea de informație la care incertitudinea este redusă la jumătate; pic .

Dacă logaritmul natural () este folosit ca bază a logaritmului în formula lui Hartley, atunci unitatea de măsură a informației este nat ( 1 bit = ln2 ≈ 0,693 nat). Dacă numărul 3 este folosit ca bază a logaritmului, atunci - trata, dacă 10, atunci - dit (Hartley).

În practică, o unitate mai mare este folosită mai des - octet(octet) egal cu opt biți. Această unitate a fost aleasă deoarece poate fi folosită pentru a codifica oricare dintre cele 256 de caractere ale alfabetului tastaturii computerului (256=28).

Pe lângă octeți, informațiile sunt măsurate în jumătate de cuvinte (2 octeți), cuvinte (4 octeți) și cuvinte duble (8 octeți). Unitățile de măsură și mai mari de informații sunt, de asemenea, utilizate pe scară largă:

1 kilooctet (KB - kilobyte) = 1024 octeți = 210 octeți,

1 Megaoctet (MB - megaoctet) = 1024 KB = 220 de octeți,

1 gigaoctet (GB - gigabyte) = 1024 MB = 230 de octeți.

1 Teraoctet (TB - terabyte) = 1024 GB = 240 octeți,

1 petabyte (Pbyte - petabyte) = 1024 TB = 250 de octeți.

În 1980, matematicianul rus Yu Manin a propus ideea de a construi un computer cuantic, în legătură cu care a apărut o astfel de unitate de informație. qubit ( bit cuantic, qubit ) – „bit cuantic” este o măsură de măsurare a cantității de memorie într-o formă posibilă teoretic de computer care utilizează medii cuantice, de exemplu, spinurile electronilor. Un qubit poate lua nu două valori diferite („0” și „1”), ci mai multe, corespunzătoare combinațiilor normalizate a două stări de rotație la sol, ceea ce oferă un număr mai mare de combinații posibile. Astfel, 32 de qubiți pot codifica aproximativ 4 miliarde de stări.

Abordare semantică. O măsură sintactică nu este suficientă dacă trebuie să determinați nu volumul de date, ci cantitatea de informații necesare în mesaj. În acest caz, se ia în considerare aspectul semantic, care ne permite să determinăm conținutul informației.

Pentru a măsura conținutul semantic al informațiilor, puteți folosi tezaurul destinatarului acesteia (consumator). Ideea metodei tezaurului a fost propusă de N. Wiener și dezvoltată de omul nostru de știință A.Yu. Schrader.

Tezaur numit corpul de informații pe care le are destinatarul informaţiei. Corelarea tezaurului cu conținutul mesajului primit vă permite să aflați cât de mult reduce incertitudinea.

Dependența volumului de informații semantice a unui mesaj de tezaurul destinatarului

În funcție de dependența prezentată de grafic, dacă utilizatorul nu deține niciun tezaur (cunoștințe despre esența mesajului primit, adică =0), sau prezența unui astfel de tezaur care nu s-a schimbat ca urmare a sosirii a mesajului (), atunci cantitatea de informații semantice din acesta este egală cu zero. Tezaurul optim () va fi unul în care volumul de informații semantice va fi maxim (). De exemplu, informații semantice dintr-un mesaj primit într-o limbă străină necunoscută va fi zero, dar aceeași situație va fi și în cazul respectiv dacă mesajul nu mai este o știre, deoarece utilizatorul știe deja totul.

Măsură pragmatică informaţii determină utilitatea acestuiaîn atingerea obiectivelor consumatorului. Pentru a face acest lucru, este suficient să determinați probabilitatea de a atinge obiectivul înainte și după primirea mesajului și să le comparați. Valoarea informațiilor (conform A.A. Kharkevich) se calculează folosind formula:

unde este probabilitatea de a atinge scopul înainte de a primi mesajul;

Probabilitatea atingerii scopului este domeniul de receptare a mesajului;

La implementarea proceselor informaționale, informația este întotdeauna transferată în spațiu și timp de la sursa informației către receptor (destinatar). În acest caz, pentru a transmite informații, se folosesc diverse semne sau simboluri, de exemplu, limbajul natural sau artificial (formal), permițând exprimarea acesteia într-o formă numită mesaj.

Mesaj– o formă de reprezentare a informaţiei sub forma unui set de semne (simboluri) utilizate pentru transmitere.

Un mesaj ca set de semne din punctul de vedere al semioticii ( din greaca setneion - semn, semn) - o știință care studiază proprietățile semnelor și sistemelor de semne - poate fi studiată la trei niveluri:

1) sintactic , unde sunt luate în considerare proprietățile interne ale mesajelor, adică relațiile dintre semne, reflectând structura unui sistem de semne dat. Proprietățile externe sunt studiate la nivel semantic și pragmatic. La acest nivel, ei consideră problemele livrării mesajelor către destinatar ca un set de caractere, ținând cont de tipul de suport și metoda de prezentare a informațiilor, viteza de transmitere și procesare, dimensiunea codurilor de prezentare a informațiilor, fiabilitatea și acuratețea conversiei acestor coduri etc., făcând abstracție completă de conținutul semantic al mesajelor și scopul lor vizat. La acest nivel, informația considerată doar din perspectivă sintactică se numește de obicei date, deoarece latura semantică nu contează.

Teoria modernă a informației studiază în principal problemele de la acest nivel. Se bazează pe conceptul de „cantitate de informații”, care este o măsură a frecvenței de utilizare a semnelor, care nu reflectă în niciun caz nici semnificația, nici importanța mesajelor transmise. În acest sens, se spune uneori că teoria informației modernă este la nivel sintactic.

2) semantic , unde sunt analizate relațiile dintre semne și obiectele, acțiunile și calitățile pe care le denotă, adică conținutul semantic al mesajului, relația acestuia cu sursa de informații. Problemele la nivel semantic sunt asociate cu formalizarea și luarea în considerare a sensului informației transmise, determinând gradul de corespondență dintre imaginea obiectului și obiectul însuși. La acest nivel se analizează informația pe care o reflectă informația, se iau în considerare conexiunile semantice, se formează concepte și idei, se dezvăluie sensul și conținutul informației și se realizează generalizarea acesteia.

3) pragmatic , unde se ia în considerare relația dintre mesaj și destinatar, adică conținutul de consum al mesajului, relația acestuia cu destinatarul.

La acest nivel sunt de interes consecințele primirii și utilizării acestor informații de către consumator. Problemele de la acest nivel sunt asociate cu determinarea valorii și utilității utilizării informațiilor atunci când consumatorul dezvoltă o soluție pentru a-și atinge scopul. Principala dificultate aici este că valoarea și utilitatea informațiilor pot fi complet diferite pentru diferiți destinatari și, în plus, depinde de o serie de factori, cum ar fi, de exemplu, oportunitatea livrării și utilizării acesteia.


Pentru fiecare dintre nivelurile de probleme de transfer de informații discutate mai sus, există propriile abordări de măsurare a cantității de informații și propriile măsurători de informații. Există, respectiv, măsuri de informare la nivel sintactic, nivel semantic și nivel pragmatic.

Măsuri ale informației la nivel sintactic. Evaluarea cantitativă a informațiilor la acest nivel nu este legată de latura de conținut a informațiilor, ci operează cu informații impersonale care nu exprimă o relație semantică cu obiectul. În acest sens, această măsură face posibilă evaluarea fluxurilor de informații în obiecte de natură atât de diferită precum sistemele de comunicații, calculatoarele, sistemele de control, sistemul nervos al unui organism viu etc.

Pentru măsurarea informației la nivel sintactic se introduc doi parametri: cantitatea de informații (date) - V d(abordarea volumului) și cantitatea de informații – Clasificarea măsurilor(abordare entropie).

Volumul de informații V d (abordarea volumului). La implementarea proceselor informaționale, informațiile sunt transmise sub forma unui mesaj, care este un set de caractere ale unui alfabet. Mai mult, fiecare caracter nou din mesaj mărește cantitatea de informații reprezentată de secvența de caractere dintr-un anumit alfabet. Dacă acum cantitatea de informații conținută într-un mesaj cu un caracter este luată ca una, atunci volumul de informații (date) V d din orice alt mesaj va fi egal cu numărul de caractere (biți) din acest mesaj. Deoarece aceeași informație poate fi reprezentată în multe moduri diferite (folosind alfabete diferite), unitatea de măsură a informațiilor (date) se va modifica în consecință.

Astfel, în sistemul numeric zecimal, o cifră are o pondere egală cu 10 și, în consecință, unitatea de măsură a informațiilor va fi dit (zecimală n n dit. De exemplu, numărul de patru cifre 2009 are un volum de date de V d = 4 dit.

În sistemul de numere binar, o cifră are o pondere egală cu 2 și, în consecință, unitatea de măsură a informațiilor va fi pic (bit (cifră binară) – cifră binară). În acest caz, un mesaj în formular -numărul cifrei are volumul de date V d = n pic. De exemplu, codul binar de opt biți 11001011 are un volum de date de V d = 8 biți.

În calculul modern, împreună cu unitatea minimă de măsură a datelor pic unitatea de măsură mărită este utilizată pe scară largă octet, egal cu 8 biți. Tocmai opt biți sunt necesari pentru a codifica oricare dintre cele 256 de caractere ale alfabetului tastaturii computerului (256 = 2 8).

Când lucrați cu volume mari de informații, unități de măsură mai mari sunt utilizate pentru a calcula cantitatea acesteia:

1 Kilobyte (KB) = 1024 bytes = 2 10 bytes,

1 Megaoctet (MB) = 1024 KB = 2 20 octeți = 1.048.576 octeți;

1 gigabyte (GB) = 1024 MB = 2 30 octeți = 1.073.741.824 octeți;

Recent, din cauza creșterii volumului de informații procesate, unități derivate precum:

1 Terabyte (TB) = 1024 GB = 2 40 octeți = 1.099.511.627.776 octeți;

1 petabyte (PB) = 1024 TB = 2 50 octeți = 1.125.899.906.842.624 octeți.

Trebuie remarcat faptul că în sistemul de măsurare a informațiilor binar (calculator), spre deosebire de sistemul metric, unitățile cu prefixele „kilo”, „mega”, etc. se obțin prin înmulțirea unității de bază nu cu 10 3 = 1000, 10 6 = 1.000.000 etc., iar pe 2 10 = 1024, 2 20 = 1.048.576 etc.

Cantitatea de informație I (abordare entropie).În teoria informației și a codificării, este adoptată o abordare a entropiei pentru măsurarea informațiilor. Această abordare se bazează pe faptul că faptul de a obține informații este întotdeauna asociat cu o scădere a diversității sau a incertitudinii (entropiei) sistemului. Pe baza acestui fapt, cantitatea de informații dintr-un mesaj este definită ca o măsură de reducere a incertitudinii stării unui anumit sistem după primirea mesajului. Incertitudinea poate fi interpretată în termeni de cât de puține știe observatorul despre un anumit sistem. Odată ce un observator a identificat ceva într-un sistem fizic, entropia sistemului scade deoarece, pentru observator, sistemul a devenit mai ordonat.

Astfel, cu abordarea entropiei informația este înțeleasă ca valoarea cantitativă a incertitudinii care a dispărut în timpul oricărui proces (testare, măsurare etc.).În acest caz, entropia este introdusă ca măsură a incertitudinii N, iar cantitatea de informații este egală cu:

I = H apr – H aps

unde, H apr – entropia a priori despre starea sistemului sau a procesului studiat;

H aps – entropia posterioară.

A posteriori (din lat. a posteriori – din cele ce urmează) – provenite din experiență (teste, măsurători).

A priori (din lat. a priori – din precedentul) este un concept care caracterizează cunoștințele care precede experiența (testarea) și este independent de aceasta.

În cazul în care în timpul testului incertitudinea existentă este eliminată (se obține un rezultat specific, adică H = 0), cantitatea de informații primite coincide cu entropia inițială

Să considerăm ca sistemul studiat o sursă discretă de informație (o sursă de mesaje discrete), prin care înțelegem un sistem fizic care are un set finit de stări posibile ( si eu}, i = .

Toate gata A = (a 1, a 2, ..., a n) stările unui sistem în teoria informației sunt numite alfabet abstract sau alfabet al unei surse de mesaje.

Stări individuale a 1, a 2,..., a n se numesc litere sau simboluri ale alfabetului.

Un astfel de sistem poate prelua aleatoriu una dintr-un set finit de stări posibile în orice moment dat. un i. În acest caz, ei spun că diverse stări se realizează datorită alegerii lor de către sursă.

Destinatarul informației (mesajului) are o anumită idee despre posibila apariție a anumitor evenimente. Aceste idei sunt în general nesigure și sunt exprimate prin probabilitățile cu care se așteaptă la un eveniment sau altul. Măsura generală a incertitudinii (entropia) este caracterizată de o anumită dependență matematică de aceste probabilități, cantitatea de informații dintr-un mesaj este determinată de cât de mult scade măsura incertitudinii după primirea mesajului.

Să explicăm această idee cu un exemplu.

Să presupunem că avem 32 de cărți diferite. Posibilitatea de a alege o carte din pachet este de 32. Înainte de a face o alegere, este firesc să presupunem că șansele de a alege o anumită carte sunt aceleași pentru toate cărțile. Făcând o alegere, eliminăm această incertitudine. În acest caz, incertitudinea poate fi caracterizată prin numărul de alegeri posibile la fel de probabile. Dacă definim acum cantitatea de informații ca măsură de eliminare a incertitudinii, atunci informațiile obținute ca urmare a alegerii pot fi caracterizate prin numărul 32. Cu toate acestea, este mai convenabil să folosiți nu acest număr în sine, ci logaritmul lui estimarea de baza 2 obtinuta mai sus:

unde m este numărul de opțiuni posibile la fel de probabile (când m=2, obținem informații într-un bit). Adică în cazul nostru

H = log 2 32 = 5.

Abordarea conturată aparține matematicianului englez R. Hartley (1928). Are o interpretare interesantă. Se caracterizează printr-un număr de întrebări cu răspunsuri „da” sau „nu” pentru a determina ce card a ales o persoană. 5 astfel de întrebări sunt suficiente.

Dacă, la alegerea unei cărți, posibilitatea de apariție a fiecărei cărți nu este aceeași (probabilă diferit), atunci obținem o abordare statistică a măsurării informațiilor propusă de K. Shannon (1948). În acest caz, măsura informației este măsurată folosind formula:

, este egal cu: p i– probabilitatea de alegere i al-lea caracter al alfabetului.

Este ușor de observat că dacă probabilitățile p 1, ..., p n sunt egali, atunci fiecare dintre ei este egal 1/N, iar formula lui Shannon se transformă în formula lui Hartley.

Măsuri ale informaţiei la nivel semantic. Pentru a măsura conținutul semantic al informațiilor, adică cantitatea acesteia la nivel semantic, cea mai răspândită este măsura tezaurului, care conectează proprietățile semantice ale informațiilor cu capacitatea utilizatorului de a accepta mesajul primit. Într-adevăr, pentru a înțelege și utiliza informațiile primite, destinatarul trebuie să aibă o anumită cantitate de cunoștințe. Necunoașterea completă a subiectului nu ne permite să extragem informații utile din mesajul primit despre acest subiect. Pe măsură ce cunoștințele despre un subiect cresc, la fel crește și cantitatea de informații utile extrase din mesaj.

Dacă numim cunoștințele destinatarului despre un anumit subiect un tezaur (adică un anumit set de cuvinte, concepte, nume de obiecte legate prin conexiuni semantice), atunci cantitatea de informații conținute într-un anumit mesaj poate fi evaluată prin gradul de schimbare. în tezaurul individual sub influenţa acestui mesaj.

Tezaur- totalitatea informatiilor disponibile utilizatorului sau sistemului.

Cu alte cuvinte, cantitatea de informații semantice extrase de destinatar din mesajele primite depinde de gradul de pregătire al tezaurului său pentru a percepe astfel de informații.

În funcţie de relaţia dintre conţinutul semantic al informaţiei Sși tezaurul utilizatorului S p cantitatea de informații semantice se modifică eu s, perceput de utilizator și inclus ulterior de acesta în tezaurul său. Natura acestei dependențe este prezentată în Fig. 2.1. Să luăm în considerare două cazuri limită când cantitatea de informație semantică I c este egală cu 0:

a) când S p = 0, utilizatorul nu percepe (nu înțelege) informațiile primite;

b) când S -> ∞ utilizatorul „știe totul” și nu are nevoie de informațiile primite.

Orez. 1.2. Dependența cantității de informații semantice,

perceput de consumator, din tezaurul său I c =f(S p)

Consumatorul dobândește cantitatea maximă de informații semantice atunci când își coordonează conținutul semantic S cu tezaurul său S p (S = S p opt), când informațiile primite sunt de înțeles utilizatorului și îi furnizează informații necunoscute anterior (nu în tezaurul său) .

În consecință, cantitatea de informații semantice dintr-un mesaj, cantitatea de cunoștințe noi primite de utilizator, este o valoare relativă. Același mesaj poate avea conținut semnificativ pentru un utilizator competent și poate fi lipsit de sens pentru un utilizator incompetent.

Atunci când se evaluează aspectul semantic (conținut) al informațiilor, este necesar să se depună eforturi pentru a armoniza valorile S și Sp.

O măsură relativă a cantității de informații semantice poate fi coeficientul de conținut C, care este definit ca raportul dintre cantitatea de informații semantice și volumul acesteia:

C = I s / V d

Măsuri de informare la nivel pragmatic. Această măsură determină utilitatea informațiilor pentru atingerea scopului unui utilizator. Această măsură este, de asemenea, o valoare relativă, determinată de particularitățile utilizării acestor informații într-un anumit sistem.

Unul dintre primii oameni de știință ruși care a abordat problema evaluării informațiilor la nivel pragmatic a fost A.A. Kharkevich, care a propus să ia ca măsură a valorii informațiilor cantitatea de informații necesară atingerii scopului, adică să calculeze creșterea probabilității de atingere a scopului. Deci, dacă înainte de a primi informații probabilitatea de a atinge obiectivul a fost p 0, iar după primirea acestuia - p 1, atunci valoarea informațiilor este determinată ca logaritmul raportului p 1 / p 0:

I = log 2 p 1 – log 2 p 0 = log 2 (p 1 /p 0)

Astfel, valoarea informației este măsurată în unități de informație, în acest caz în biți.

Clasificarea măsurilor

Măsuri de informare

Formulare de adecvare a informațiilor

Adecvarea informaţiei poate fi exprimată în trei forme: semantică, sintactică, pragmatică.

Adecvarea sintactică. Afișează caracteristicile formale și structurale ale informațiilor și nu afectează conținutul semantic al acesteia. La nivel sintactic se ține cont de tipul suportului și metoda de prezentare a informațiilor, viteza de transmitere și prelucrare, dimensiunea codurilor pentru reprezentarea acestuia, fiabilitatea și acuratețea conversiei acestor coduri etc. Informația considerată doar dintr-o poziție sintactică se numește de obicei date, deoarece latura semantică nu contează.

Adecvarea semantică (noțională). Această formă determină gradul de corespondență dintre imaginea obiectului și obiectul însuși. Aspectul semantic presupune luarea în considerare a conținutului semantic al informației. La acest nivel se analizează informația pe care o reflectă informația și se iau în considerare conexiunile semantice. În informatică se stabilesc conexiuni semantice între codurile de reprezentare a informaţiei. Această formă servește la formarea conceptelor și ideilor, la identificarea sensului, conținutului informațiilor și generalizării acesteia.

Această formă servește la formarea conceptelor și ideilor, la identificarea sensului, conținutului informațiilor și generalizării acesteia. reflectă relația dintre informație și consumatorul acesteia, corespondența informațiilor cu scopul de management, care este implementat pe baza acesteia. Proprietățile pragmatice ale informațiilor apar doar dacă există unitate de informație (obiect), utilizator și scop de control. Aspectul pragmatic al considerației este asociat cu valoarea, utilitatea utilizării informațiilor atunci când consumatorul dezvoltă o soluție pentru a-și atinge scopul.

Pentru măsurarea informaţiei se introduc doi parametri: cantitatea de informaţie I şi cantitatea de date V. Aceşti parametri au expresii şi interpretări diferite în funcţie de forma de adecvare luată în considerare. Fiecare formă de adecvare corespunde propriei sale măsurători a cantității de informații și a volumului de date (Fig. 2.1).

Măsura sintactică a informațiilor V d dintr-un mesaj este măsurat prin numărul de caractere (biți) din acest mesaj. ÎN diverse sistemeÎn notație, o cifră are o greutate diferită și unitatea de măsură a datelor se modifică în consecință:

  • în sistemul numeric binar, unitatea de măsură este un bit (bit - cifră binară - cifră binară);
  • În sistemul numeric zecimal, unitatea de măsură este dit (locul zecimal).


Orez. 2.1. Măsuri de informare

Un mesaj în sistemul zecimal sub forma unui număr de șase cifre 275903 are un volum de date I la nivel sintactic nu poate fi determinat fără a lua în considerare conceptul de incertitudine a stării sistemului (entropia sistemului). Într-adevăr, obținerea de informații despre un sistem este întotdeauna asociată cu o modificare a gradului de ignoranță a destinatarului cu privire la starea acestui sistem. Să luăm în considerare acest concept.


Lăsați consumatorului să aibă câteva informații preliminare (a priori) despre sistem a înainte de a primi informații. Măsura ignoranței sale asupra sistemului este funcția H(a), care servește, în același timp, ca măsură a incertitudinii stării sistemului.

După primirea unui mesaj b, destinatarul a dobândit unele informații suplimentare I b (a), ceea ce i-a redus ignoranța a priori astfel încât incertitudinea a posteriori (după primirea mesajului b) a stării sistemului a devenit H b (a).

Apoi cantitatea de informații I b (a) despre sistemul primită în mesajul b va fi determinată ca

I b (a) = H(a)-H b (a),

aceste. cantitatea de informaţie este măsurată printr-o modificare (reducere) a incertitudinii stării sistemului.

Dacă incertitudinea finală a sistemului H b (a) devine zero, atunci cunoștințele inițiale incomplete vor fi înlocuite cu cunoștințe complete și cantitatea de informație I b (a) = H (a). Cu alte cuvinte, și cantitatea de informații Ib(a)=H(a). Cu alte cuvinte, entropia sistemului

Entropia unui sistem H(a), având N stări posibile, conform formulei lui Shannon, este egală cu

,

unde P i este probabilitatea ca sistemul să fie în starea i-a.

Pentru cazul în care toate stările sistemului sunt la fel de probabile, i.e. probabilitățile lor sunt egale cu P i = , entropia sa este determinată de relația

.

Adesea, informațiile sunt codificate cu coduri numerice într-unul sau altul sistem numeric, acest lucru este valabil mai ales atunci când se prezintă informații pe un computer. Desigur, același număr de cifre în sisteme de numere diferite poate transmite un număr diferit de stări ale obiectului afișat, care poate fi reprezentat ca un raport

unde N este numărul tuturor stărilor posibile afișate;

m - baza sistemului numeric (varietatea de simboluri utilizate în alfabet);

n este numărul de biți (caractere) din mesaj.

Cele mai utilizate sunt logaritmii binari și zecimali. Unitățile de măsură în aceste cazuri vor fi bit și, respectiv, dit.

Coeficientul (gradul) conținutului informațional(concizia) unui mesaj este determinată de raportul dintre cantitatea de informații și cantitatea de date, adică

Y=1/V d și 0

Pe măsură ce Y crește, cantitatea de muncă necesară pentru a converti informațiile (date din sistem) scade. Prin urmare, se străduiesc să crească conținutul informațional, pentru care se dezvoltă metode speciale de codificare optimă a informațiilor.


Pentru a măsura conținutul semantic al informațiilor, i.e. cantitatea sa la nivel semantic, cea mai recunoscută este măsura tezaurului, care leagă proprietățile semantice ale informațiilor cu capacitatea utilizatorului de a accepta mesajul primit. În acest scop este folosit conceptul tezaur utilizator.

Tezaur este o colecție de informații disponibile unui utilizator sau unui sistem.

În funcție de relația dintre conținutul semantic al informației S și tezaurul utilizatorului S p , cantitatea de informație semantică I c percepută de utilizator și inclusă ulterior de acesta în tezaurul său se modifică. Natura acestei dependențe este prezentată în Fig. 2.2.



Orez. 2.2. Dependența cantității de informații semantice percepute de consumator

Să luăm în considerare două cazuri limitative când cantitatea de informație semantică I c
este egal cu 0:

  • când S p = 0, utilizatorul nu percepe sau înțelege informațiile primite;
  • cu S p ® ¥ utilizatorul știe totul și nu are nevoie de informațiile primite.

Consumatorul dobândește cantitatea maximă de informație semantică I c atunci când își coordonează conținutul semantic S cu tezaurul său S p (S p = S p opt), când informația primită este de înțeles utilizatorului și îl poartă necunoscut anterior (nu în tezaurul său). ) informații.

În consecință, cantitatea de informații semantice dintr-un mesaj, cantitatea de cunoștințe noi primite de utilizator, este o valoare relativă. Același mesaj poate avea conținut semnificativ pentru un utilizator competent și poate fi lipsit de sens (zgomot semantic) pentru un utilizator incompetent.

Atunci când se evaluează aspectul semantic (conținut) al informațiilor, este necesar să se depună eforturi pentru a armoniza valorile lui S și S p.

O măsură relativă a cantității de informații semantice poate fi coeficientul de conținut C, care este definit ca raportul dintre cantitatea de informații semantice și volumul acesteia: