Odes: de entropie van het beeld geeft de hoeveelheid informatie weer die het beeld bevat: min wanneer het beeld een effen kleurdiagram is (wit of zwart) met slechts een grijswaarden, dan is de entropie het minst, H=0, en de hoeveelheid informatie van het beeld 0;Omdat de afbeelding een effen kleur is, betekent dit dat de afbeelding geen doel bevat en de hoeveelheid informatie 0 is;② wanneer beelden bevat N grijswaarden waarde, d. W. Z. Elke pixel grijswaarden van verschillende, op dit moment maximale entropie, H = logN, informatieve beelden;Op dit moment verschilt de grijstinten van elke pixel in de afbeelding, en je zou kunnen denken dat elke pixel van de afbeelding een onafhankelijk object is met een maximale hoeveelheid N, vergelijkbaar met een kaart vol objecten;Dus: hoe groter de entropie H van het beeld, hoe rijker de pixel grijstinten van het beeld, hoe gelijkmatiger de verdeling van de grijstinten, hoe meer voorwerp van het beeld, hoe meer informatie van het beeld, en omgekeerd omgekeerd;Een verzameling afbeeldingen, wanneer de grijstinten van elke pixel verschillend zijn, heeft op dit moment de grootste entropie.
Informatieentropie: in de informatietheorie is het begrip informatieentropie het volgende: de entropie (de gemiddelde hoeveelheid zelfinformatie) van een willekeurige discrete bron vinden.Zelf-informatie is een variabele die verwijst naar de hoeveelheid informatie die een bepaalde bron van een brief bevat om een bericht te verzenden.Er is een direct verband tussen de hoeveelheid informatie van een bericht en zijn onzekerheid.De berichten die worden verzonden zijn verschillend, en de hoeveelheid informatie die ze bevatten is verschillend.De hoeveelheid zelf-informatie van een bericht vertegenwoordigt niet de gemiddelde hoeveelheid zelf-informatie die de bron bevat.Een maat van informatie die niet kan worden gebruikt als een volledige bron van informatie, dus de wiskundige verwachting van het definieren van de hoeveelheid van informatie is de gemiddelde hoeveelheid van zelf-informatie van de bron.De betekenis van informatie entropie: informatie entropie H wordt beschouwd vanuit het statistische karakter van de hele bron.Het karakteriseert het algemene karakter van de bron van de brief vanuit de gemiddelde betekenis.Voor een bepaalde bron is er slechts een bron van informatie.De verschillende bronnen verschillen door hun statistische kenmerken en hun entropie.Informatie entropie wordt meestal aangeduid met het symbool H, de eenheden zijn bits.Hoe groter de onzekerheid van een variabele, hoe groter de entropie.
De entropie van het beeld: is een statistische vorm van kenmerken die de gemiddelde hoeveelheid informatie in het beeld weergeven.Eenwaardige grijstinten entropie: eendimensionale entropie 1d dat entropie images in grijswaarden distributie vervatte informatie heeft verzameld kenmerken, tot Pi uitgedrukt in grijswaarden aandeel bedraagt 1 pixel, wordt een definitie grijstinten eenwaardige beelden van grijswaarden entropie: Pi daarvan is de waarschijnlijkheid van een grijstinten in het beeld verschijnt, is beschikbaar door grijswaarden histogram.De eendimensionale entropie van het beeld kan het aggregatieve karakter van de verdeling van de grijstinten van het beeld weergeven;
Tweedimensionale entropie: de eendimensionale entropie van het beeld kan het aggressieve karakter van de verdeling van de grauwe schaal van het beeld weergeven, maar niet het ruimtelijke karakter van de verdeling van de grauwe schaal van het beeld;Om dit ruimtelijke karakter te karakteriseren, worden er op basis van eendimensionale entropie karakteristieke hoeveelheden geintroduceerd die de ruimtelijke kenmerken van de verspreiding van grijstinten kunnen weergeven om de tweedimensionale entropie van het beeld samen te stellen;Selecteer het buurtgemiddelde van de afbeelding als de hoeveelheid ruimtelijke kenmerken van de grijswaardeverdeling, die de karakteristieke binaire groep met de pixelgrijstinten van de afbeelding vormt, wordt geregistreerd als (i, j), waar i de grijswaarde van de pixel vertegenwoordigt (0 <= i <= 255) en j het buurtgemiddelde (0 <= j <= 255) :De bovenste energie reageert op het uitgebreide karakter van de grijswaarden op een bepaalde pixelpositie en de bijbehorende pixelgrijsverdeling, waarbij f(i, j) de frequentie is waarmee de karakteristieke binaire groep (i, j) verschijnt, en N de schaal van het beeld, gedefinieerd als de tweedimensionale entropie van het discrete beeld:Geconstrueerd beeld tweedimensionale entropie kan, met de hoeveelheid informatie die het beeld bevat, het gecombineerde karakter van de grijs-schaal informatie die de positie van de pixels in het beeld weerspiegelt en de grijs-schaal distributie binnen de pixel-omgeving benadrukken.
Entropy() en entropyFilt() in het Matlab zijn er twee Entropy operatorfuncties: Entropy() en entropyFilt(); Entropy() en entropyFilt().Entropy() berekent de globale entropie;EntropyFilt () berekent de lokale entropie;Entropy(I) berekent de globale entropie door: een histogram van de grijstoon I in een bin van 0-255, een normalisering van L1 en een herberekening van de entropie met -- som (p*log2(p)), dat wil zeggen, Curhist = Hist(I, 0:255);Curhist = curhist / sum(curhist);E = -sum(curhist .* log2(curhist)); EntropyFilt(I) berekent de lokale entropie als volgt: de regio van n*n(n=9) in pixelpunten berekent de entropie op dezelfde manier.De methode kan een textuurbeeld krijgen;
Matlab lokale entropie programma's: - zoek textuur afbeeldingen;Hoe meer entropie, hoe meer wanorde;Het beeld, dat de lokale entropie van het beeld definieert op basis van de ordeloosheid van de pixelpuntverdeling in grijstinten, weerspiegelt de rijkdom van de beeldinformatie;Hoe kleiner de kans dat een gebeurtenis zich voordoet, hoe groter de hoeveelheid informatie en hoe groter de mate van onzekerheid;In de betekenis van vermenigvuldiging: de onzekerheid van een gebeurtenis vermenigvuldigd met de kans dat het zich voordoet, vertegenwoordigt de onzekerheid die de dingen concreet manifesteren.clear all;close all;clc;img1 = imread('raw.bmp');img = rgb2gray(img1);%gray[m n]=size(img);w=4;% template radius imgn=zeros(m,n);% m * n de matrix for i = 1 + w: m - for j = 1 + w: n/Hist = zeros 1,256);% 1 * 256, p = i - w: i + w met nucleaire grootte voor q = j. W: j + w Hist (img (p, q) + 1) = Hist (img (p, q) + 1) + 1.% van het histogram end end Hist = verr/sum (Hist);for k=1:256 if Hist(k)~=0 imgn(i,j)=imgn(i,j)+Hist(k)*log(1/Hist(k));% lokale entropie end end endendimshow bezoeken imgn imgn, [] = entropyfilt (img);Entropyfiltfigure van de lokale entropie functie van het % systeem;imshow(imgn,[]);
Global entropy programming: een tweedimensionaal entropy % vinden om het beeld A=floor(rand(8,8).*255) te genereren;[M,N]=size(A); Temp = zeros 1,256);% van het beeld van grijswaarden waarde op [0.255 statistieken voor: m = 1 m voor n = 1: if A (m, n = n = 0;i=1; else i=A(m,n); end temp(i)=temp(i)+1; end end temp=temp./(M*N); % berekend door entropie definitie resulteert in t=0;for i=1:length(temp) if temp(i)==0; result=result; else result=result-temp(i)*log2(temp(i)); end end
// berekenen entropy van een imagedouble entropy (Mat img){// de input matrix is de afbeelding double temp[256];// goedkeuring voor (int i=0;i(m); for(int n=0;n
De entropie van het beeld weerspiegelt de hoeveelheid informatie die het beeld bevat;
Een verzameling afbeeldingen, wanneer de grijstinten van elke pixel verschillend zijn en de entropie op dit moment het grootst is;