Teledetekcja - notatki z wykładów PDF

Title Teledetekcja - notatki z wykładów
Course Teledetekcja i fotogrametria
Institution Uniwersytet Wroclawski
Pages 32
File Size 1.4 MB
File Type PDF
Total Downloads 13
Total Views 159

Summary

notatki z wykładów...


Description

Tele – osiągany z dużej odległości Detekcja – wykrywanie Teledetekcja – wykrywanie sygnałów lub promieniowania eketromagnetycznego. Istota teledetekcji w badaniach środowiska geograficznego polega na wykorzystaniu promieniowania elektromagnetycznego jako źródła danych o różnych akspektach tego środowiska. Jest to badanie obiektów, zjawisk i procesów zachodzących na powierzchni Ziemi, pod jej powierzchnią i w atmosferze, za pomocą rejestracji promieniowania elektromagnetycznego, oraz analiza zarejestrowanych danych w celu uzyskania informacji, które po interpretacji tworzą wiedzę o badanych obiektach i zjawiskach. Jest to także pozyskiwanie informacji o powierzchni Ziemi i powierzchniach wód wykorzystujące obrazy wykonane w ujęciu pionowym, do utworzenia których wykorzystuje się wybrane zakresy fal promieniowania ektromagnetycznego, odbijanych od powierzchni Ziemi lub z niej emitowanych. Teledetekcja środowiska – zajmuje się zarówno poszczególnoymi komponentami środowiska jak i jego całością (strukturą), a także zjawiskami zachodzącymi w środowisku i jego strukturalnych częściach. W swoich badaniach teledetekcja posługuje się różnymi metodami wypracowanymi w trakcie jej rozwoju jak też metodami zaczerpniętymi z różnych dziedzin wiedzy i przystosowanymi do potrzeb badań teledetekcyjnych. W rejestracji promieniowania wykorzystywane są systemy, które są zdolne do zapisania danych z jednego lub kilku zakresów widma widzialnego i podczerwonego. Do zapisania danych w zakresie mikrofalowym służą urządzenia radarowe. Zastosowanie: topografia i kartografia, geologia i geomorfologia, gleboznawstwo, hydrologia, badania szaty roślinnej, studia nad rolnictwem i osadnictwem wiejskim, badania obszarów zurbanizowanych i przemhysłowych Historia: 1800 – odkrycie przez W. Herschela promieniowania podczerwonego 1839 – początki fotografii (dagerotypia) 1840 – pierwszy negatyw (kalotypia) 1847 – okrycie, że promieniowanie podczerwone ma podobne właściwości jak światło widzialne 1850-60 – pierwsze fotografie z balonów 1861 – Teoria elektromagnetyzmu równania stworzona przez J. Maxwella; pierwsze zdjęcia barwne 1900 – pierwsza kamera do fotografi wielospektralnej 1903 – pierwszy lot samolotu silnikowego (bracia Wright) 1909 – pierwsze fotografie wykonywane z samolotu 1914-1918 – początki zwiadu lotniczego, wykorzystywanie samolotów wyposażonych w aparaty 1920-1930 – pierwsze zastosowanie i rozwój metod fotogrametrycznych:  1920 – pierwsze wykorzystanie zdjęć lotniczych do rozpoznania geologicznego przy poszukiwaniach ropy naftowej  1924 – wielowarstwowy film barwny  1930 – Pierwsze zdjęca lotnicze spektrostrefowe wykorzystane w badaniach zasobów naturalnych (ZSRR)  1930 – Pierwsze próby systemów termalnych przystosowanych do pracy w nocy (noktowizja) 1930-1940 – Pierwsze konsrtukcje radarowe w Niemczech, USA i WB

II wojna światowa:  Pierwsze wykorzystanie zakresu niewidzialnych dla ludzi fal elektromagnetycznych.  Masowe wykorzystanie zdjęć lotniczych pozyskanych przez samoloty zwiadowcze  Regularne szkolenia personelu w zakresie uzyskiwania i interpretacji zdjęć lotniczych oraz stosowania technik fotogrametrycznych. Piloci zwiadowcy i interpretatorzy przyczynili się do sukcesu Aliantów wykonując i opracowując ogromną liczbę materiałów fotograficznych. Przyczynili się także do spektakularnych zwycięstw m.in wytropienia i rozpoznania w jednym z norweskich wiodrów pancernika "Bismarck", w efekcie czego okręt został niedługo potem zatopiony, czy do rozpoznania poligonów testowych i bazy rakietowej na wyspie Uznam, w której Niemcy testowali nowe tajne bronie odwetowe: V-1 i V-2 1946 – Pierwsze zdjęcie z rakiety, z wysokości orbitalnej (rakieta V-2, USA) 1950-1956 – Zimnowojenny okres rozwoju teledetekcji:  technologie szeroko wykorzystywane w czasie wojny i rozwijane do początku lat 60-tych stanowiły pilnie strzeżone tajemnice.  1950 – zastosowanie ortofotografii do celów kartograficznych  1952 – pierwsze zastosowania kolorowej fotografii lotniczej w kartowaniu geologicznym  1952-1956 – badania nad chorobami i szkodnikami roślin, przy wykorzystaniu zdjęć lotniczych w podczerwieni  1956 – publikacje na temat wykorzystania lotniczej fotografii spektrostrefowej w kartowaniu gleb (ZSRR) Słynne epizody związane z zimnowojennym etapem wykorzystania i rozwoju technik teledetekcyjnych i zwiadowczych to m.in.:  zestrzelenie nad ZSRR w 1960r. Amerykańskiego samolotu szpeigowskiego U-2  ujawnienie w 1962r. Podczas kryzysu kubańskiego budowy instalacji (...) 1960 – Satelita zwiadu strategicznego CORONA (USA) pozwala uzyskiwać rutynowo obrazy powierzchni Ziemi wykonywane z przestrzeni satelitarnej; monograficzny podręcznik; wystrzelenie pierwszego satelity meteorologicznego – TIROS-1 Na początku lat 60-tych użyto poraz pierwszy określenia "teledetekcja", które zastąpiło określenie "fotografia lotnicza". Przestało ono bowiem pasować do wachlarza danych uzyskiwanych zarówno w szerszym zakresie widma promieniowania (poza zakresem światła widzialnego), jak i z użyciem tradycyjnych statków powietrznych. 1962 – pierwsze 9-obiektywowe kamery wielospektralne (ZSRR i USA) 1964 – NASA – badania użyteczności fotografii wielospektralnej w badaniach zasobów Ziemi 1967 – Pierwsze praktyczne wykorzystanie fotografii UV 1968 – Pierwsze prace na teledetekcyjnyni systemami laserowymi; wielospektralny satelitarny eksperyment fotograficzny – Apollo-9 1972 – pierwszy satelita operacyjny do badań środowiska lądowego Landsat-1 wyposażony w aparaturę multispektralną 1973-1979 – Obserwacje teledetekcyjne wykonywane w przestrzeni kosmicznej przez stację orbitalną Skylab 1975 – Publikacja ASP – "Manual of Remote Sensing" 1978 – pierwszy satelita do badań mórz i oceanów – Seasat 1970-1980 – Gwałtowny rozwój cyfrowej obróbki obrazu, technik, które będą stanowić podstawę współczesnego opracowywania danych teledetekcyjnych Lata 80 - Rozpoczęcie prac nad rozwojem technologii sensowór hiperspektralnych 1980-1990 – Landsat-4 – satelita wyposażony w nową generację czujnikó 1986 – francuski satelita do obserwacji Ziemi – SPOT Lata 90 – Działające w skali globalnej systemy teledetekcyjne; wykorzystanie laserów w systemch LIDARowych; pierwszy radarowy satelita europejski do badań środowiska ERS-1 1999 – Start satelity Terra-1 (NASA), pierwszego satelity systemu specjalnie zaprojektowanego do zbierania globalnych danych teledetekcyjnych w celu monitorowania zmian w ziemskich ekosystemach

Fotogrametria – wykorzystanie zdjęć lotniczych do pomiarów obieków fotografowanych (np. pomiar wysokości) Metody fotogrametryczne zostały opracowane wcześniej niz moment, w którym nastąpiło ich wykorzystanie na większą skalę. W latach 20-30 XX w. rozwinięto także konstrukcje i wykorzystanie wyspecjalizowanych instrumentów fotogrametrycznych. W tym czasie nastąpiło także zwiększone wykorzystanie rutynowo wykonywanych zdjęć lotniczcych w programach rządowych – początkowo do celów kartograficznych, a później także w celu badania zasobów naturalnych (gleby, mapy geologiczne, badania leśne i rolnictwo) Zdjęcia spektrostrefowe – zdjęcia barwne w barwach umownych – nienaturalnych, często stosowane dla potrzeb inwentaryzacji obiektów o dużej przestrzennej zmiennosci przyrodniczej. Rejestrują z reguły dwa lub jeden z zakresów widzialnych promieniowania i zawsze rejestrują zakres promieniowania podczerwonego, do długości fal rzędu 0,8-0,9 mikrometra. Sensory hiperspektralne – instrumenty pozwalające na gromadzenie danych z kilkudziesięciu/kilkuset zakresów spektrum widma fal elektromagnetycznych. LIDAR (Light Detection and Ranging) – Urządzenia wykorzystywane w lotnicznym skaningu laserowym, który jest techniką pozyskiwania danych na potrzeby budowy numerycznych modeli terenu Fotointerpretacja – rozpoznanie, odczytanie i wykrycie na zdjęciach nie tylko poszczególnych obiektów, ale również współzalezności pomiedzy elementami krajobrazu i właściwościami tych obiektów, które nie odfotografowały się bezpośrednio na zdjęciach. Fotointerpretacja obejmuje:  wyjaśnienie właściwości informacyjnych zdjęć lotniczych i satelitarnych oraz ustalenie oceny stopnia rozpoznania obiektów  analizę właściwości poznawczych obrazów lotniczych i satelitarnych oraz wykonanie na nich pomiarów (fotogrametria)  klasyfikację i systematyzację cech rozpoznawczych, obejmującą badanie związków między obrazem fotograficznym, a cechami i właściwościami obiektów oraz wykorzystanie ich w procesie fotointerpretacji  doskonalenie instniejących metod i technologii, a także opracowanie nowych, uwzględniających rozwój techniki oraz dostosowanie ich do potrzeb różnych dziedzin wiedzy  szkolenie fotointepretatorów uwzględniające problemy związane z włsciwościami psychologicznymi, fizjologicznymi i logicznymi człowieka Etapy fotointerpretacji: 1. rozpoznawanie obiektów 2. klasyfikacja obiektów 3. pomiar, przeliczanie stosunków 4. wyznaczanie zakresu zjawisk Fotointerpretację danego zdjęcia, szeregu zdjęć, czy obszaru pokrytego zdjęciami prowadzi się zawsze w zależności od celu, jakiemu odczytane informacje mają służyć. Te same zdjęcia mogą być bowiem wykorzystywane w różnych dziedzinach i interpretowane pod innym kątem.

W zależności od celu wyróżnia się fotointerpretację:  ogólnogeograficzną (topograficzną lub krajobrazową)  specjalną (branżową) Ze względu na zastosowanie wyróżnia się fotointerpretację:  kameralną (ocena i klasyfikacja obiektów i zjawisk przedstawianych na obrazach odbywa się w warunkach laboratoryjnych)  polową (w której wizualna obserwacja obkiektów i zjawisk w terenie prowadzi do ich rozpoznania, oceny i klasyfikacji)  kombinowaną (będącą połączeniem powyższych metod) Pod względem psychologiczno-fizjologicznym można w procesie fotointerpretacji wyodrębnić odczytanie obrazu i interpretację właściwą. Odczytanie obrazu odbywa się na zasadzie przechodzenia od ogółu do szczegółu i składa się z:  Wykrywania obiektów, zjawisk, czy procesów na podstawie ich cech zewnętrznych (np. Barwy, kształtu i struktury)  Rozpoznania obiektów, będącego potwierdzeniem poprawności wstęonych spostrzeżeń na podstawie ich cech rozpoznawczych (bezpośrednich, pośrednich i kompleksowych), prowadzącego do zaklasyfikowania wykrytych obiektów do określonej kategorii,  Identyfikacji szczegółowej, polegającej na dokładnym opisaniu okreslonego obiektu w oparciu o materiały źródłowe, dzięki czemu może on być wyróżnony spośród innych o podobnych cechach Na tym etapie obserwator wykorzystuje swoje doświadczenie, wiedzę, kojarzenie i wyobraźnię przestrzenną. Identyfikacja szczegółowa musi być prowadzona w oparciu i materiały źródłowe i weryfikację terenową. Interpretacja właściwa jest skomplikowanym procesem rozumowania i kojarzenia informacji, pozwalającym dzięki wnioskowaniu deukcyjnemu otrzymać informacje o obiektach, procesach. Fotointerpretator dokonuje rozpoznania obiektów na podstawie ich cech rozpoznawczych:  bezpośrednich – geometrycznych, optycznych i strukturalbych chartakterystyk samych obiektów  pośrednich – ilościowych, przestrzennych, przyczynowych i funkcjonalnych zależności między obiektami  kompleksowych – będących naturalną kombinacją cech bezpośrednich i pośrednich. Cechy bezpośrednie: opisują te właściwości obiektów, które sa postrzegane przez system wzrokowy człowieka w pierwszej kolejności Do tych cech należy: kształ, wielkość obiektu, fototon (barwa) obrazu fotograficznego oraz jego tekstura, a także struktura Dwie cechy bezpośrednie: struktura i tekstura są czasami zaliczane do osobnej grupy cech, gdyż są dostrzegane dopiero po skoncentrowaniu wzroku na analizowanym obiekcie i wykryciu jaki charakter przestrzenny ma powierzchnia wewnątrz obrysu obiektu. Kształt obiektu wiąże się z jego genezą:  Regularny – obiekty powstałe w wyniku działalności człowieka odznaczają się kształtami zbliżonymi do figur geometrycznych. Przykładem jest kształt zabudowań mieszkalnych, gospodarczych i przemysłowych, pól ornych, linijne kształty dróg, mostów, kanałów itd.  Nieregularny – obiekty pochodzenia naturalnego, na przykład nieregularne rzeki, jeziora, elementy rzeźby itd.

Fototon (ton) obrazu – funkcja ilości promieniowania odbitego od obiektu, które dotarło do sensora i zostało zarejestrowane. Ilość odbitego promieniowania z kolei zależy od: jasności obiektu, kąta padania promieni słonecznych, charakteru powierzchni, położenia obiektu w stosunku do punktu głównego, pogody w momencie rejestracji obrazu, parametrów sensora Barwa obiektu (jasność na zdjęciu czarno-białym) jest pierwsza cechą postrzeganą przez człowieka; barwa na zdjęciu nie jest identyczna z rzeczywistą, lecz silnie z nią skorelowana. Posiada 3 cechy: kolor, nasycenie i jasność. Kolor – główny wyróżnik barwy (czerwony, żółty, zielony) Nasycenie – określa czy kolor jest czysty, czy jest zszarzony Interpretacja: Im większa prostopadłość padania promieni słonecznych, tym obiekt na zdjęciu będzie wydawał się jaśniejszy. Pomocna jest godzina robienia zdjęcia (ustalenie wysokości słońca nad horyzontem) oraz zorientowanie forografii zgodnie z kierunkami geograficznymi. Wielkość obiektu – jest zależna od skali zdjęcia i rzeczywistych wymiarów obiektu. Znajomość skali obrazu i wymiaru kilku zarejestrowanych obiektów stanowi odniesienie do określenia wymiarów innych obiektów o znanej w przybliżeniu wielkości, (np. budynek jednorodzinny, samochód) Tekstura (fototekstura) – przestrzenne ułożenie elementów obrazu, układ geometryczny – wzór przez nie tworzony. Można wyróżnić teksturę plamistą, szachownicową, rzędowoą, liniową lub bezładną itp. Niekiedy tekstura jest określana jako struktura przestrzenna W grafice komputerowej nie wyróżnia się struktury i tekstury nazywają złożenie tych cech teksturą Przykłady tekstury obiektów: sad – tekstrura kratowa droga – liniowa las – plamista Struktura obrazu (fotostruktura) – oddaje charakter (stopień szorstkości powierzchni sfotografowanego obiektu. Najczęściej definiuje się ją jako gładką-amorficzną, drobnozairnistą, gruboziarnistą itp. Duży wpływ na fotostrukturę danego obiektu ma zazwyczaj skala zdjęcia (ten sam obiekt może mieć strukturę drobniejszą na zdjęciu małoskalowym i znacznie grubszą na zdjęciu wielkoskalowym). W określaniu struktury i tekstury obrazu unika się subiektywnych odczuć wykorzystując klucze i wzorce interpretacyjne. Klucz fotointertpretacyjny – zbiór przykładów ilustrujących, jak wyglądają określone obiekty na zdjęciach. Klucz opracowuje się w terenie, zaznaczając na zdjęciach wzorce obiektów i zjawisk. Wyniki wydzieleń interpretacyjnych oznacza się sygnaturami na samym zdjęciu; wzorce powinny być wykonane w krótkim czasie po rejestracji zdjęc lub w okresie analogicznym (np. Rok później) Klucz jest pomocny np do rozpoznawania upraw rolnych, których cechy na obrazie zależą znacząco od okresu fenologicznego.

Cechy pośrednie: cechy pochodzące od pewnych obiektów, a wskazujące na obecność innych (albo na ich właściwości), które nie znalazły bezpośredniego odzworowania na obrazie analizowanego obiektu. Do tej grupy cech zalicza się te cechy, które drogą posrednią wskazują na obecnośc przedmiotu i na jego charakterystyczne właściwości. Zaliczane są tu: cień własny i cień rzucany przez dany obiekt oraz rozmieszczenie topograficzne danego obiektu i jego powiązanie z innymi elementami terenu. Cień rzucany przez dany obiekt – ułatwia rozpoznanie obiektu, gdyż przedstawia jego profil. Zależy jednak od wysokości Słońca nad horyzontem i jego azymutu, a także usytuowania obiektu na obrazie (położenia w stosunku do głównego punktu zdjęcia). Cień rzucany wnosi informację o wysokości obiektu, ale jednocześnie przesłania obiekty, które znajdują się w strefie zacienionej (zdjęcie o dobrej jakości powinno charakteryzować się tzw. przezroczystymi cieniami) Cień własny obiektu – nieoświetlona część obiektu znajduje się w cieniu własnym. Rozmieszczenie topograficzne obiektu i jego powiązanie z innymi elementami terenu – pozwala drogą dedukcyjną – po ropzoznaniu pewniej ilości obiektów – zdefiniować treść trudniej rozpoznawalną na podstawie wzajemnej współzależności między obiektami (np rzeka – most, zabudowa wiejska – sad) Powiązania (asocjacje) – zależności wiążące sąsiednie obiekty, np parking i obiekt użyteczności publicznej, rzekę i most; Asocjacje pozwalają na ustalenie zależności pomiędzy:  budową geologiczną a ukształtowaniem powierzchni terenu;  glebami a roślinnością  zbiorowiskami roślinnymi a warunkami gruntowo-wodnymi Interpretator, wykorzystując bezpośrednio cechy rozpoznawcze, rozpoznaje jakiś obiekt lub zjawisko pozostające w ścisłym związku z elementem poszukiwanym. Element taki nazywa się indykatorem. Jednym z najbardziej uniwersalnych indykatorów jest roślinność. Indykatory pozwalają wnioskować o istnieniu lub cechach innych obiektów przykrytych przez obiekty wskaźniki, np wysychanie drzew może wskazywać na obniżenie poziomu wód gruntowych albo na zanieczyszczenie gleby, albo na zanieczyszczenie powietrza. Drogą dedukcji można określić pradopodobieństwo jednej z hipotez (np czy jest w poblizu zakład emitujący gazy do atmosfery) Przykład: Gleba pozostaje w ścisłym związku z pokrywą roślinną oraz rzeźbą terenu. Roślinność oraz rzeźba, którą moża zobaczyć w modelu przestrzennym są indykatorami służącymi do wnioskowania o typie gleby. Rzeźba jest wskaźnikiem (indykatorem) dla pokrywy roślinnej, która może być zidentyfikowana dzięki charakterystycznym miejscom występowania, a te z kolei mogą stanowić podstawę określenia warunków gruntowo-wodnych badanego obszaru np. strome, nasłonecznione odkryte stoki południowe – występowanie muraw kserotomicznych. Przesunięcie radialne – obiekty wystające ponad teren odwzorowują się na zdjęciu tak, jakby się kładły bokiem na teren (np. Widzimy ściany budynków, gdyż dach jest odsunięty od podstawy budynku), wielkość przesunięcia radialnego zależy od odległości obiektu od środka zdjęcia – budynek położony na środku zdjęcia nie ma przesunięcia, a taki sam na skraju zdjęcia – ma duże (radialne, bo ma kierunek od obiektu do środka zdjęcia)

Przesunięcie radialne i cień są wskaźnikami sygnalizującymi zróżnicowanie wysokościowe w kadrze zdjęcia. Równoczesna obserwacja dwóch różnych zdjęć, ale w części obrazujących ten sam fragment terenu umożliwia widzenie przestrzenne, czyli włączenie do procesu fotointerpretacji trzeciego wymiaru. Proces fotointerpretacji powinien przebiegać wg ściśle określonych schematów postępowania. Proces ten jest uzależniony od celu fotointerpretacji, rodzaju materiału zdjęciowego, wyposażenia w przyrządy interpretacyjne oraz innych czynników. W procesie wyróżnia się 4 etapy postępowania:  określenie celu fotointerpretacji  zbieranie informacji  wybór i odpowiednie przygotowanie materiałów zdjęcowych  opracowanie zdjęć lotniczcych i zobrazowań satelitarnych W fotointerpretacji obowiązuje także zachowanie zalecanej kolejności tematycznej. W wielu pozycjach literaturowych autorzy sugerują oparcie się na kolejności zaporoponowanej przez Kirka H. Stone'a:  sieć drogowa  sieć hydrograficzna  rzeźba powierzchni terenu  szata roślinna naturlana  uprawy  osadnictwo wiejskie  osadnictwo miejskie  obiekty przemysłowe  obiekty wojskowe Fotointerpretacja ma charakter indukcyjno-dedukcyjny, więc musi przebiegać w określonej kolejności, zapewniającej poprawność przebiegu tego procesu: 1. Określenie celu fotointerpretacji 2. postrzeganie wstępne (ogólne zaznajomienie się z obrazem fotograficznym) 3. stawianie hipotez roboczych (formułowanie przypuszczeń) 4. Selekcja hipotez (wybór pod kątem fotointerpretacji) 5. postrzeganie szczegółowe (wykrywanie obiektów) 6. Kontrola (sprawdzanie, uzupełnianie i weryfikacja hipotez) 7. Posrtzeganie ostateczne (analiza hipotez) 8. Analiza i wnioski końcowe (ocena i interpretacja) Interpretacja obrazów cyfrowych Cechy: rozdzielczość powierzchniowa – określana rozmiarami pikseli rozdzielczość radiometryczna – wyrażana dyskretnymi poziomami jasności (x bitów = 2x poziomów jasności – 1 bit = 2 poz, 8 bit = 256 poz) rozdzielczość spektralna – okreslana liczbą pomiarów spektralnych (rejestrowanych kanałów) Powyższe cechy wykorzystywane są do wydzielania informacji z obrazu, a ponadto umożliwjiają sformowanie 2 zadań interpretacji obrazów cyfrowych. Pierwsze zadanie to przeprowadzenie przy pomocy komputera analizy ilościowej. W skład tej analizy wchodzi np zliczanie pikseli posiadających wspólne cechy oraz określanie zajmowanych przez nie p...


Similar Free PDFs