Zagadnienia z Analiza obrazów i technika wizyjna 2004/2005 semestr zimowy 1. proces formowania obrazu analogowego - oświetlenie sceny, - odbicie promieni od powierzchni obiektu, * procesy fizyczne, * parametry (absorbcja, odbicie, itp.) - rzutowanie perspektywiczne, Rzutowanie oznacza odwzorowanie obiektów trójwymiarowych na płaszczyznę z utratą informacji dotyczących głębi obrazu. - rola soczewki obiektywu, - mechanizm zobrazowania na powierzchni półprzewodnikowgo przetwornika matrycowego. 2. Parametry procesu akwizycji obrazu - wyostrzanie, - ogniskowa, Idealna soczewka załamuje wszystkie promienie świetlne biegnące równolegle do głównej osi optycznej do jednego punktu. Punkt ten nazywany jest ogniskiem soczewki. Soczewka zamienia wiązkę równoległą na wiązkę promieni zbieżnych do ogniska. Po przejściu przez ognisko wiązka staje się rozbieżna. Soczewki wklęsłe rozpraszają promienie świetlne. I też mają ognisko, tylko pozorne położone po tej stronie soczewki z której padają promienie. - równanie soczewki, Odległością przedmiotu i obrazu od soczewki spełnia zależność zwaną równaniem soczewki. x – odległość przedmiotu od soczewki y - odległość obrazu przedmiotu od soczewki f – ogniskowa soczewki

Wtedy równanie soczewki wyrazi się wzorem: 1/x +1/y = 1/f - ekspozycja: * rola migawki, migawka - zasłona blokująca dostęp światła do powierzchni sensora światłoczułego. Podczas robienia zdjęcia migawka otwiera się na ułamek sekundy i zamyka kiedy zadany czas naświetlenia już upłynie. * rola przesłony, przysłona - układ regulujący wielkość otworu, przez który światło wpada do aparatu. Najczęściej spotykanym typem jest przysłona irysowa - nachodzące na siebie blaszki tworzą okrągły otwór, który możemy zmniejszyć (zwiększając liczbę przysłony) lub zwiększyć (zmniejszając l. p.). Kolejne skoki przysłony na skali powodują 2-krotną zmianę natężenia wpadającego światła Od wartości przysłony zależy też głębia ostrości czyli fragment przestrzeni uchwyconej na zdjęciu, w którym wszystkie elementy są ostre (im mniejszy otwór tym większa głębia). - nastawy przesłony i jeje związek z głębią ostrości, - czynniki decydujące o jakości obrazu analogowego.

3. Rejestracja obrazu cyfrowego, - zasada działania przetwornika matrycowego CCD i CMOS * podstawy działania pojedynczego elementu detekcyjnego (podstawy fizyczne), * organizacja procesu rejestracji obrazu w pamięci, na podstawie stanu matrycy, Przetwornik CCD Działają na zasadzie studni potencjałów, potrzebują wysokie napięcie. [foton pada na powierzchnię detekcyjną i wywołuje ruch nośników (wytworzenie elektronów). Dzięki temu ładuje się mikrokondensator.] Obecnie najpowszechniej stosowany w komercyjnych kamerach wideo jest przetwornik CCD (ang. Charge–Coupled Device) – przyrząd o sprzężeniu ładunkowym. Wykonywany jest w postaci jednego układu scalonego, którego matryca obrazowa zawiera setki tysięcy elementów światłoczułych. Struktóra takiego przetwornika: składa się on z części transportującej i części obrazowej – światłoczułej. Aby na wyjściu przetwornika uzyskać sygnał elektryczny będący ładunkową reprezentacją obrazu optycznego skupionego na części światłoczułej, należy odpowiednio dobrać sygnały sterujące. Wytworzone w poszczególnych komórkach porcje ładunku elektrycznego, których wielkość jest proporcjonalna do natężenia padającego na poszczególne komórki światła, są przemieszczane najpierw w lewo, do linii zbierającej ładunki z poszczególnych elementów światłoczułych, a następnie w dół do głównej części transportującej. Z głównej części transportującej sygnał wizyjny, odpowiadający obrazowi skanowanemu, kolejno linia po linii wychodzi na zewnątrz w postaci sygnału elektrycznego. Zakres przetwarzanego promieniowania stosowanych przetworników CCD wynika z zastosowania w nich krzemu (Si) jako podstawowego materiału półprzewodnikowego. Rozciąga się on od 300 nm (ultrafiolet) do 1300 nm (bliska podczerwień), z maksimum w okolicach 750 nm. W celu dostosowania tej charakterystyki do czułości spektralnej oka ludzkiego (350-750 nm z maksymalną wartością 555 nm) stosuje się odpowiednie filtry optyczne. Fizycznym ograniczeniem szybkości działania przetwornika CCD jest z kolei maksymalna prędkość, z jaką w danym materiale mogą poruszać się nośniki ładunku. W celu jej zwiększenia strukturę wyposaża się w tzw. kanał zagrzebany (ang. buried channel). Zwiększenie prędkości przemieszczania się nośników jest wtedy możliwe ze względu na to, że w głębi półprzewodnika jest znacznie mniejsza liczba defektów (w stosunku do warstw przypowierzchniowych), których występowanie jest jedną z podstawowych przyczyn ograniczających prędkość nośników. Praktycznym ograniczeniem szybkości działania przetwornika jest także występowanie w strukturach CCD szkodliwych pojemności. Z powodu niewielkiego poboru mocy i niewielkiej liczby kontaktów w układach z przetwornikami CCD ich niezawodność jest bardzo wysoka. Elementy matrycy CCD nasycają się w tempie proporcjonalnym do natężenia padającego na nie światła. Jasno oświetlone piksele gromadzą ładunek bardzo szybko ulegając prześwietleniu. Ładunek z takiego prześwietlonego (przesyconego) piksela zaburza pracę sąsiadujących pikseli powodując, że także i one ulegają przesyceniu. Piksele słabo oświetlone gromadzą ładunek powoli i w momencie odczytu jest on niewielki, dając w rezultacie niski stosunek sygnału do szumu.

Pojedynczy piksel ma rozmiary około 1µm. Przetworniki CMOS Słabiej oddają odcienie szarości, zasilane 3,3V. Szybsza akwizycja. Technologię CCD cechują małe zniekształcenia obrazu, ale również większą szybkość działania oraz dużą czułość układów. Wymaga jednak drogiego procesu wytwarzania oraz obecności dodatkowych układów do obróbki danych o obrazie. Natomiast przetworniki CMOS - dzięki dobremu opanowaniu technologii i powszechności stosowania - zapewniają znacznie mniejsze koszty wytworzenia układu. Ich dużą zaletą jest także do kilkudziesięciu razy mniejsze zużycie energii, co nie tylko wydłuża czas pracy na bateriach, ale także ogranicza wydzielanie ciepła, a tym samym zmniejsza intensywność szumów widocznych na obrazie. Dodatkową zaletą przetworników CMOS jest możliwość swobodnego dostępu do poszczególnych punktów rejestrowanego obrazu. Dla każdego punktu istnieje wzmacniacz odczytu, poprawiający stosunek sygnału użytecznego do szumu. Wadą układów CMOS jest mniejsza czułość, między innymi na skutek zajmowania części powierzchni przetwornika przez tranzystory wzmacniające sygnału, co sprawia, że gorsza również jest jakość rejestrowanego obrazu. Próbuje się to poprawiać różnego rodzaju algorytmami obróbki danych i sposobami redukcji szumów, np. przez dwukrotną ekspozycję tego samego ujęcia.

- raster matrycy, * rodzaje rastrów, Najczęściej stosowana jest siatka prostokątna, możliwa jest siatka heksagonalna. W siatce prostokątnej musimy rozróżniać komórki stykające się rogami i komórki stykające się bokami, w siatce heksagonalnej nie. - W obecnych systemach przetwarzania obrazu wykorzystuje się generalnie dwa sposoby

rozmieszczenia cyfrowych elementów obrazu: według siatki heksagonalnej lub kwadratowej. Sposób pierwszy jest bardziej zbliżony do naturalnego układu receptorów w narządzie wzroku człowieka, ale drugi jest znacznie prostszy i wygodniejszy w obsłudze, dlatego jest on (jako tzw. raster kwadratowy) bardziej rozpowszechniony w komputerowej analizie obrazu. Wynika stąd, że przeważająca ilość urządzeń wprowadzających lub wyprowadzających obraz z komputera posługuje się siatką kwadratową. Wszystkie powszechnie wykorzystywane formaty graficzne również opierają się na niej. * rozmiary fizyczne komórki rastra, Dla CCD pojedynczy piksel ma rozmiary nawet około 1µm2. Ale standardowo teraz stosowane są matryce z wielkością pojedynczego piksela około 3-8 µm2. W przypadku matryc CMOS to wielkość piksela jest około kilkunastu µm2 (18- 11µm2 ). Ale można już spotkać matryce CMOS z rozmiarem piksela około 3,5 µm2. - formaty plików do zapisu obrazów cyfrowych, Format JPEG Największą zaletą formatu JPEG jest wygoda posługiwania się nim. Nie ma chyba takiego programu graficznego, który nie obsługiwałby plików tego typu. Same pliki za# cechuj# si# niewielkimi rozmiarami, ponieważ mogą być kompresowane. Ważne jest jednak to, aby stosować kompresję (która jest kompresją stratną, tzn. Taką, która powoduje utratę pewnych szczegółów z zawartości obrazka) z zachowaniem najlepszej możliwej jakości obrazu, bo tylko wtedy zdjęcie będzie nadawać się do dalszej pracy. Kiedy wybieramy format JPEG do zapisu zdjęć w aparacie, to zwykle możemy określić rozmiar obrazka, jak i jego jakość. Zalecamy, aby zawsze korzystać z maksymalnych ustawień dostępnych dla elementu światłoczułego w aparacie (jeśli chodzi o opcję rozmiaru, to ta, która zapewnia rejestrację obrazu o największej liczbie pikseli, w menu aparatu zwykle nosi nazwę „Large”). Kompresja oparta jest na skomplikowanych metodach matematycznych, których podstawą jest tzw. dyskretna transformata cosinusowa. Format TIFF W formacie TIFF pliki na ogół zapisywane są bez kompresji, dzięki czemu nie tracimy żadnych szczegółów z zawartości obrazka. Mówimy „na ogół”, bo możliwe jest kompresowanie plików metodą JPEG. Większość fotografów zapisuje w formacie TIFF archiwalne kopie swoich zdjęć. Jeśli jednak chodzi o opcje zapisu w aparacie, to sugerujemy, aby posłużyć się innym formatem przede wszystkim ze względu na duże rozmiary plików TIFF. Ponieważ każdy piksel obrazu musi być opisany za pomocą trzech wartości, końcowy rozmiar pliku ze zdjęciem będzie sobie liczył trzy razy więcej megabajtów niż liczba megapikseli w elemencie światłoczułym. Należy to rozumieć w taki sposób, że na przykład plik TIFF zarejestrowany przez aparat 6megapikselowy będzie miał rozmiar 18 MB (6 × 3 = 18). Tak duże pliki nie tylko znacznie szybciej wypełniają kartę pamięci, ale również dłużej się zapisują. Format TIFF jest więc dobrym rozwiązaniem w przypadku drukowania oraz archiwizowania fotografii cyfrowych, ale nie polecamy go do zapisywania zdjęć w aparacie. Format RLE – stosowany do wysyłania faksów (tylko czarno-biały). Format GIF Format PNG Format BMP - proces kwantyzacji wartości funkcji obrazowej, Przy próbkowaniu sygnału analogowego uzyskane wartości próbek muszą być reprezentowane przez określoną, dostępną w danym komputerze liczbę bitów. Proces ten nazywany jest kwantowaniem i można uważać za odwzorowanie liczb rzeczywistych w liczby całkowite Podstawowym parametrem kwantowania jest liczba progów kwantyzacji, która zależy z kolei od liczby bitów przeznaczonej na reprezentowanie wartości każdego piksela. Im większa liczba bitów tym większa liczba poziomów jasności lub kolorów w obrazie i co za tym idzie lepsza jakość obrazu cyfrowego. W przypadku obrazu szaroodcieniowego mamy z reguły 256 poziomów jasności (8 bitów). Obraz kolorowy zapisujemy przy użyciu 24 bitów w systemie

RGB. Oznacza to, że zapamiętywane są poszczególne składowe koloru: czerwona (Red), zielona (Geen) i niebieska (Blue). Na każdą składową przeznacza się 8 bitów, stąd 24 bity na każdy piksel - proces próbkowania przestrzennego na powierzchni formowania się obrazu, Próbkowanie jest wybraniem zbioru dyskretnych punktów w kontinuum czasu lub przestrzeni. Próbkowanie 2D - Próbkowanie realizowane jest przez podział dwuwymiarowej dziedziny funkcji jasności obrazu na obszary o jednakowych wymiarach (najczęściej są to obszary prostokątne nazywane pikselami), którym przypisuje się średnie wartości natężenia funkcji jasności dla danego obszaru. W ten sposób uzyskujemy obraz w postaci macierzy NxM pikseli zawierających wartości rzeczywiste, przy czym każdy piksel może być indeksowany parą liczb naturalnych wskazujących numer wiersza i numer kolumny w macierzy. Jakość dyskretyzacji w dużym stopniu zależy od częstotliwości próbkowania, czyli od rozdzielczości matrycy CCD (z reguły 512x512) lub dokładności skanowania skanera (600x600 dpi lub 1200x1200 dpi) oraz od jakości zastosowanych detektorów optoelektronicznych. [teseracja = próbkowanie przestrzeni = dzielenie obrazu na małe elementy mozaiki]. - rejestracja obrazu monochromatycznego a obrazu wielomodowego (np.: barwnego), 4. Kolorymetria a obrazy cyfrowe - sześcian i trójkąt Maxwella, - reprezentacje RGB i CMY, Model RGB jest jednym z pierwszych praktycznych modeli przestrzeni kolorów zawierającym receptę dla tworzenia barw. Ten model w sposób jawny wyłonił się w czasach narodzin telewizji (lata 1908 i następne). Jest to model wynikający z właściwości odbiorczych oka i opiera się na fakcie, że wrażenia prawie wszystkich barw w oku można wywołać przez zmieszanie w ustalonych proporcjach tylko trzech wybranych wiązek światła o odpowiednio dobranej szerokości widma. Do dziś w oparciu o ten model pracują lampy obrazowe – kineskopy. Tutaj jest dobry moment aby zwrócić uwagę na mały szczegół. Światło białe złożone jest z wielu, z nieskończonej ilości fal różniących się częstotliwością, i aby wytworzyć w oku wrażenie światła białego, to oczywiste jest, że wiązki o których tutaj mowa nie mogą być jakimiś pojedynczymi falami monochromatycznymi lub wiązkami takich fal (na przykład takimi jak daje laser). Muszą to być wiązki światła o dobranej szerokości widma. odel RGB ma wady. Poza przypadkiem bieli, kolory pomiędzy B:G lub pomiędzy G:R są tylko przybliżeniami dla pełnego cyjanu lub pełnej żółci - odpowiednio. Ale model ten jest zaspakajający dla oka człowieka. Jest on zwykle prezentowany jako fragment przestrzeni trzywymiarowej ograniczonej sześcianem o jednostkowym boku. Pojęciu barwy czarnej odpowiada punkt (0,0,0) to znaczy zerowa intensywność wszystkich składowych. Natomiast punkt (1,1,1) reprezentuje sobą biel. Odcinek (przekątna) od punktu (0,0,0) do punktu (1,1,1) reprezentuje sobą poziomy szarości od czerni do bieli. Inne punkty, ogólnie a*(r,g,b) jako wektory ze startem w punkcie (0,0,0), teoretycznie reprezentują różne nasilenie barwy, mówi się o różnej intensywności barwy i oczywiście w granicach jednostkowego sześcianu. Model RGB definiuje w sposób jawny co to jest intensywność ale dla indywidualnych składowych R,G,B. Mianowicie wartości składowych RGB opisują intensywność indywidualnie danej barwy podstawowej jako liczba z przedziału od 0 do 1 i nie uzależniają tej wartości od dwu pozostałych składowych. Mówi się, że składowe RGB są ortogonalne, niezależne od siebie. Wartość składowej =0 oznacza zero intensywności barwy podstawowej. Wartość =1 oznacza pełną maksymalną intensywność. Model CMY. Rozważania z użyciem modelu RGB są dobre dla urządzeń, które emitują światło, ale dla okoliczności związanych z prezentacją obrazu na nośnikach biernych (poligrafia) użycie bezpośrednio opisu punktów z tego modelu nie jest możliwe. Człowiek używa nazwy dla barwy farby tak jak ją widzi. Powierzchnia farby odbija światło z otoczenia i to odbite światło daje wrażenie nazywane barwą farby. Różnica pomiędzy światłem białym a światłem NIE odbitym, to: (c,m,y)=(1,1,1)-(r,g,b) barwy podstawowe i są one lokalizowane na osi długości fal mniej więcej pomiędzy barwami

podstawowymi z modelu RGB. Są czasem nazywane barwami "subtraktywnymi" (z ang. subtract, odejmować). Ich nazwy własne to: Cyjan, Magenta i Yellow. Stąd współrzędne nazywają się CMY. Kolor Cyjan leży gdzieś pomiędzy niebieskim a zielonym, kolor Magenta (fiolet, okolice purpury) ma trochę czerwonego i niebieskiego, a kolor Yellow (żółty) leży pomiędzy zielenią a czerwienią. Tak ustalone kolory bazowe mają swoje odpowiedniki na płaszczyznach sześcianu modelowego w przestrzeni RGB odpowiednio: Cyjan: (0,G,B), Magenta: (R,0,B), oraz Yellow: (R,G,0). Jak już wspominaliśmy kolor bieli jest pojęciem umownym. Z modelu RGB, punkt bieli (R,G,B)= (1,1,1), przenosi się wraz ze swoją całą umownością na punkt CMY=(0,0,0) i w ten sposób dla CMY jest to umowna barwa biała, można też użyć nazwy, że jest to barwa podłoża. Punkt RGB= (0,0,0) jako kolor czarny przenosi się na punkt CMY=(1,1,1). Taki kolor może być co najwyżej mniej więcej czarny, ponieważ nie jest możliwe praktycznie wytworzenie mieszanki dla barwy czarnej przy użyciu trzech innych barw z zestawu CMY. Fakt ten jest często uzasadniany "zabrudzeniem" składników CMY, ale nie jest to do końca prawdą. W rzeczywistości mamy sytuację, że potrzebujemy wykonać mieszankę trzech farb, w ilościach różnej od zera, i która nie będzie odbijać żadnej barwy. A więc, taka mieszanka musi osiągnąć granicę, że wszystkie barwy odbijane przez jakieś składniki farby, muszą być tłumione ( trochę pochłaniane lub wyłapywane) przez inne składniki. Czyli barwę czarną, otrzymujemy w teoretycznej granicy z dokładnością do cząstki farby i stąd są trudności z praktycznym uzyskaniem koloru czarnego. Z tych samych powodów co w modelu RGB, również w modelu CMY, nie da się opisać wszystkich barw. Ale w przypadku poligrafii szczególnie dla czerni i bieli, pojęcie mniej więcej czarnej barwy lub mniej więcej białej barwy jest nie do przyjęcia. W związku z tym do modelu CMY dołączono jeszcze jedną składową K opisującą ilość czwartej farby. - reprezentacja HSV, W roku 1978 pojawiła się jeszcze jedna propozycja modelu opisu barw zaproponowana przez Alvey Ray Smith. Model ten nawiązuje do sposobu widzenia przez człowieka, gdzie wszelkie barwy to światło pochodzące z oświetlenia. Model ten często jest określany jako model barw dla artystów. Wszystkie barwy wywodzą się z konkretnego światła bieli. Model praktycznego zastosowania raczej nie ma poza twórcami artystami. Model HSV, w tym modelu określa się: odcień barwy (Hue), nasycenie (Saturation) i wartość (Value). Bryłą, w której są zawarte wszystkie barwy reprezentowane w modelu HSV, jest ostrosłup sześciokątny. który został skonstruowany w następujący sposób. Jeżeli popatrzy się na sześcian RGB z zewnątrz wzdłuż przekątnej, na której leżą poziomy szarości, to obserwowany kontur bryły będzie sześciokątem foremnym, w którego wierzchołkach będą się znajdowały barwy R, Y, G, C, B, M. W środku sześciokąta będzie znajdować się barwa biała. Wnętrze będzie wypełnione odcieniami barw o różnym nasyceniu. Konstrukcja bryły polega na utworzeniu osi prostopadłej do sześciokąta i przechodzącej przez jego środek. Na osi tej są reprezentowane różne poziomy szarości. Po ustaleniu na tej osi punktu, któremu zostaje przypisana barwa czarna, można już skonstruować odpowiedni ostrosłup foremny. Osi głównej są przypisane wartości od 0 dla wierzchołka do 1 w środku podstawy. Każdy przekrój ostrosłupa prostopadły do osi głównej zawiera wszystkie odcienie barw o różnych nasyceniach i o jasności odpowiadającej [jasności] na osi. Na obwodzie sześciokąta znajdują się barwy nasycone. Każdemu odcieniowi barwy jest przypisany kąt liczony przeciwnie do ruchu wskazówek zegara, poczynając od półprostej łączącej środek sześciokąta z wierzchołkiem reprezentującym barwę czerwoną. Wzdłuż każdej półprostej łączącej środek sześciokąta z barwą nasyconą leżą barwy nienasycone o tym samym odcieniu co barwa nasycona. Im bliżej środka sześciokąta, tym mniejsze nasycenie barwy. Skala nasycenia barwy zmienia się od 0 do 100%. Istnieją pewne odmiany modelu HSV - model HSB, w którym B oznacza jasność (Brightness),

- przekształcenie przestrzeni RGB w HSV, Model przestrzeni HSV jest tak skonstruowany, że wszystkie barwy wychodzą ze światła białego zdefiniowanego wartością V. Te symbole określają tą samą wartość i określają światło Brightness. Modelowa bryła stożka jest dynamiczną prezentacją aktualnych wartości S oraz V.

- podstawy trójskładnikowej teorii barw w wersji addytywnej i substraktywnej, 5. Rola zakłóceń w procesie formowania obrazu, - typy i charakterystyki zakłóceń oświetlenia, - typy i charakterystyki zakłóceń medium (przestrzeni rejestracji) - typy i charakterystyki zniekształceń optycznych, - szum fotonowy, mechanizm i miejsce występowania, - typy i charakterystyki szumów półprzewodnikowych, - zakłócenia związane z dyskretyzacją obrazu, 6. Punktowe operacje na obrazie Cechą charakterystyczną punktowych przekształceń obrazu jest to, że poszczególne elementy obrazu (punkty) modyfikowane są niezależnie od stanu elementów sąsiadujących. Innymi słowy jeden punkt obrazu wynikowego otrzymywany jest w wyniku wykonania określonych operacji na pojedynczym punkcie obrazu wejściowego. Dzięki takiej prostej regule operacje jednopunktowe mogą być wykonywane stosunkowo łatwo i szybko nawet na bardzo dużych obrazach. Najprostszymi operacjami punktowymi są: utworzenie negatywu, rozjaśnienie lub zaciemnienie

obrazu wybranych punktów obrazu. Przekształcenia jedno-punktowe (inaczej znane jako operacje anamorficzne) wykonywane są zwykle z zastosowaniem operacji LUT, wykorzystującej z góry przygotowane tablice korekcji. - korekcja gamma, Zmiana ogólnej jasności obrazu. Możliwa jest też korekcja dla każdego podstawowego koloru składowego (czerwonego, zielonego i niebieskiego). Opisy obrazu z użyciem modelu RGB mają taką specyficzną właściwość, że wytworzone zaburzenia liniowości opisu barw powodują, że na innym urządzeniu barwy są inne. Obraz wyblakły lub odwrotnie, nieostre szczegóły. Problem liniowości występuje w urządzeniach rejestrujących i w urządzeniach wyświetlających. Zagadnienie sprowadza się do tego, aby intensywność światła zmieniała się liniowo dla obserwatora wraz ze zmianą luminancji. - histogram obrazu, Histogram obrazu jest bardzo prostą i bardzo użyteczną funkcją, pozwalającą w sposób globalny scharakteryzować obraz. Formalnie można określić histogram jako funkcję h(i) zdefiniowaną w następujący sposób: M −1 N −1

hi= ∑



m=0 n=0

pi /m , n

{

i=0, 1 ,..., 2 B −1

}

pi /m , n= 1 gdy Lm , n=i 0 w przeciwnym przypadku W praktyce oznacza to, że poszczególne składowe funkcji h(i) oznaczają po prostu liczbę pikseli o jasności i występujących na obrazie. - Histogramem poziomów jasności nazywamy statystyczny rozkład występowania w obrazie cyfrowym poszczególnych poziomów jasności. Algorytm wyznaczania histogramu: - Niech f(P) jest wartością elementu P w przedziale [0,L]. H jest tablicą histogramu. -Algorytm: -Wstaw do tablicy H(Z) (0