Proste sieci z przekazywaniem informacji

https://aie24.pl/

Sieć feedforward, jak sama nazwa wskazuje, ma połączenia tylko w jednym kierunku — to znaczy tworzy ukierunkowany graf acykliczny z wyznaczonymi węzłami wejściowymi i wyjściowymi. Każdy węzeł oblicza funkcję swoich danych wejściowych i przekazuje wynik swoim następcom w sieci. Informacje przepływają przez sieć od węzłów wejściowych do węzłów wyjściowych i nie ma pętli. Z drugiej strony, sieć rekurencyjna przekazuje swoje pośrednie lub końcowe wyniki z powrotem do swojego własnego wejścia. Oznacza to, że wartości sygnału w sieci tworzą dynamiczny system, który ma stan wewnętrzny lub pamięć. Sieci powtarzające się rozważymy w rozdziale 22.6. Przykładem sieci ze sprzężeniem do przodu są układy logiczne, które implementują funkcje logiczne. W obwodzie logicznym dane wejściowe są ograniczone do 0 i 1, a każdy węzeł implementuje prostą funkcję logiczną swoich danych wejściowych, tworząc 0 lub 1. W sieciach neuronowych wartości wejściowe są zwykle ciągłe, a węzły pobierają ciągłe dane wejściowe i wytwarzają wyjścia ciągłe. Niektóre dane wejściowe do węzłów są parametrami sieci; sieć uczy się, dostosowując wartości tych parametrów tak, aby sieć jako całość pasowała do danych treningowych.

AI : Technologie, Aplikacje i Wyzwania : Wykrywanie obiektów w mglistym środowisku dla aplikacji w czasie rzeczywistym

https://aie24.pl/

„Aparat cyfrowy” to termin używany dla urządzenia, którego rolą jest przechwytywanie obrazu lub nagrywanie sekwencji klatek bez użycia rzeczywistego filmu, na którym można naświetlać obrazy. „Wykrywanie obiektów” lub „śledzenie obiektów” to termin odnoszący się wyłącznie do aparatu cyfrowego. Dziedzina informatyki badająca zjawiska związane z tworzeniem i udoskonalaniem cyfrowych rejestratorów wideo nazywana jest widzeniem komputerowym. Te dwa terminy – przetwarzanie obrazu i widzenie komputerowe – są czasami uważane za te same pojęcia i używane zamiennie. W tym rozdziale rozważymy je jeden po drugim. Przetwarzanie obrazu skupia się na przetwarzaniu obrazów przez pewne przekształcenia, takie jak wygładzanie, zwiększanie jasności lub kontrast oraz wykrywanie lub podkreślanie krawędzi obrazu. Przetwarzanie obrazu przyjmuje dane wejściowe jako obraz i przywraca dane wyjściowe jako obraz. Z drugiej strony, wizja komputerowa służy do pobierania informacji lub cech z obrazu. Wizja komputerowa przyjmuje dane wejściowe jako obraz, ale wyjściem są informacje dotyczące obrazu, wyodrębnione za pomocą technik przetwarzania obrazu. Widzenie komputerowe jest więc zależne od technik przetwarzania obrazu. W wielu scenariuszach czasu rzeczywistego, w których komputer zastępuje ludzkie widzenie, warunki są takie, w których ludzkie oczy nie działają. Informatyka już od kilkudziesięciu lat próbuje wyposażać maszyny w system wizualny. Ponad 150 lat od wynalezienia pierwszego aparatu fotograficznego trwają badania, aby maszyna widziała z większą dokładnością i dbałością o szczegóły niż ludzie. Widzenie komputerowe coraz częściej podejmuje złożone wyzwania, wykorzystując uczenie maszynowe, sztuczną inteligencję i głębokie uczenie, aby analizować bardziej złożone obrazy z większą dokładnością. Istnieje kilka zaawansowanych obszarów widzenia komputerowego, które muszą zostać zbadane przez studentów i badaczy, omówione w dalszej części.

DEEP LEARNING

https://aie24.pl

Głębokie uczenie to szeroka rodzina technik uczenia maszynowego, w której hipoteza przyjmuje postać złożonych obwodów algebraicznych z przestrajalną siłą połączenia. Słowo „głęboki” odnosi się do faktu, że obwody są zwykle zorganizowane w wiele warstw, co oznacza, że ​​ścieżki obliczeniowe od wejść do wyjść mają wiele kroków. Głębokie uczenie jest obecnie najczęściej stosowanym podejściem do zastosowań takich jak rozpoznawanie obiektów wizualnych, tłumaczenie maszynowe, rozpoznawanie mowy, synteza mowy i synteza obrazów; odgrywa również znaczącą rolę w zastosowaniach uczenia się przez wzmacnianie . Głębokie uczenie ma swoje początki we wczesnych pracach, w których próbowano modelować sieci neuronów w mózgu (McCulloch i Pitts, 1943) za pomocą obwodów obliczeniowych. Z tego powodu sieci wytrenowane metodami głębokiego uczenia są często nazywane sieciami neuronowymi, nawet jeśli podobieństwo do prawdziwych komórek i struktur nerwowych jest powierzchowne. Chociaż prawdziwe przyczyny sukcesu uczenia głębokiego nie zostały jeszcze w pełni wyjaśnione, ma ono oczywistą przewagę nad niektórymi metodami opisanymi wcześniej – szczególnie w przypadku danych wielowymiarowych, takich jak obrazy. Na przykład, chociaż metody takie jak regresja liniowa i logistyczna mogą obsługiwać dużą liczbę zmiennych wejściowych, ścieżka obliczeniowa od każdego wejścia do wyjścia jest bardzo krótka: mnożenie przez pojedynczą wagę, a następnie dodawanie do zagregowanego wyniku. Co więcej, różne zmienne wejściowe wpływają niezależnie na wynik, bez wzajemnego oddziaływania . To znacznie ogranicza moc wyrazu takich modeli. Mogą one reprezentować tylko funkcje liniowe i granice w przestrzeni wejściowej, podczas gdy większość koncepcji świata rzeczywistego jest znacznie bardziej złożona. Z drugiej strony listy decyzyjne i drzewa decyzyjne pozwalają na długie ścieżki obliczeniowe, które mogą zależeć od wielu zmiennych wejściowych – ale tylko dla stosunkowo niewielkiej części możliwych wektorów wejściowych . Jeśli drzewo decyzyjne ma długie ścieżki obliczeniowe dla znacznej części możliwych danych wejściowych, liczba zmiennych wejściowych musi być wykładniczo duża. Podstawową ideą uczenia głębokiego jest trenowanie obwodów w taki sposób, aby ścieżki obliczeniowe były długie, pozwalając wszystkim zmiennym wejściowym na interakcję w złożony sposób . Te modele obwodów okazują się wystarczająco wyraziste, aby uchwycić złożoność danych ze świata rzeczywistego dla wielu ważnych problemów związanych z uczeniem się.

AI : Technologie, Aplikacje i Wyzwania : Wniosek

https://aie24.pl/

Dane z czujnika piranometrycznego oraz dane z nachylonego GHI NREL-MNRE zostały wykorzystane do przeprowadzenia oceny potencjału słonecznego wybranego obszaru badań. Ponieważ badany obszar położony jest na terenie pagórkowatym, wartość GHI jest wyższa w porównaniu z wartościami GHI w Roorkee (region równinny). To wyraźnie pokazuje wpływ zanieczyszczeń i aerozolu na wartości danych GHI. Ocena potencjału słonecznego lokalizacji została przeprowadzona przy użyciu wartości GHI uzyskanych z metod satelitarnych, takich jak model CAMS, NREL, atlas NASA oraz lokalne wartości GHI przy użyciu piranometru. Podejście półautomatycznej ekstrakcji cech z zestawu danych satelitarnych o wysokiej rozdzielczości WorldView-3 zostało zastosowane do wyodrębnienia użytecznych obszarów dachów. Ekstrakcja dachu była wspomagana przez podejście półautomatycznej ekstrakcji cech. To półautomatyczne podejście do ekstrakcji cech wyodrębniło około 90% dachów. Model NASA POWER przyniósł najlepsze wyniki pod względem walidacji naziemnej za pomocą piranomotera i podejścia pochylonego GHI. Zostało to ocenione przy użyciu wartości RMSE. Roczne i miesięczne mapy GHI, nachylonego GHI i potencjału słonecznego są doskonałym źródłem do oceny indywidualnej i organizacji pod kątem wykonalności małych i dużych projektów słonecznych. Kąt nachylenia 20,18 ° jest kluczowym parametrem dla instalacji paneli fotowoltaicznych, aby wykorzystać maksymalny kwant energii słonecznej. Mapy te są przydatne do szybkiej i szybkiej analizy nadchodzących elektrowni słonecznych na dachach, zbiornikach wodnych i gruntach położonych w Uttarakhand w Indiach. Tego typu badania są potrzebne we wszystkich krajach i są szczególnie korzystne na obszarach o przedłużonej ekspozycji na słońce.

Streszczenie

https://aie24.pl/

Metody uczenia statystycznego obejmują zarówno proste obliczanie średnich, jak i budowę złożonych modeli, takich jak sieci bayesowskie. Mają zastosowanie w informatyce, inżynierii, biologii obliczeniowej, neuronauce, psychologii i fizyce. Przedstawiono niektóre podstawowe idee i dano przedsmak podstaw matematycznych. Główne punkty są następujące:

  • Bayesowskie metody uczenia się formułują uczenie się jako formę wnioskowania probabilistycznego, wykorzystując obserwacje do aktualizacji wcześniejszego rozkładu hipotez. Takie podejście zapewnia dobry sposób na zaimplementowanie brzytwy Ockhama, ale szybko staje się niewykonalne w przypadku złożonych przestrzeni hipotez.
  • Uczenie maksimum a posteriori (MAP) wybiera jedną najbardziej prawdopodobną hipotezę na podstawie danych. Hipoteza uprzednia jest nadal stosowana, a metoda jest często bardziej realistyczna niż pełne uczenie bayesowskie.
  • Uczenie się o maksymalnym prawdopodobieństwie po prostu wybiera hipotezę, która maksymalizuje prawdopodobieństwo danych; jest to równoważne uczeniu się MAP z jednolitym uprzednim. W prostych przypadkach, takich jak regresja liniowa i w pełni obserwowalne sieci bayesowskie, rozwiązania o maksymalnym prawdopodobieństwie można łatwo znaleźć w formie zamkniętej. Nauka naiwnego Bayesa jest szczególnie skuteczną techniką, która dobrze się skaluje.
  • Gdy niektóre zmienne są ukryte, lokalne rozwiązania największej prawdopodobieństwa można znaleźć za pomocą algorytmu maksymalizacji oczekiwań (EM). Zastosowania obejmują nienadzorowane grupowanie przy użyciu kombinacji Gaussów, uczenie się sieci bayesowskich i uczenie ukrytych modeli Markowa.

AI : Technologie, Aplikacje i Wyzwania : Wyniki i dyskusje

https://aie24.pl/

Zdjęcia satelitarne o wysokiej rozdzielczości zostały wyodrębnione za pomocą Google Earth Pro i podzielone na 43 segmenty. Algorytm k-średnich został zastosowany do poszczególnych segmentowanych części w celu wyodrębnienia obrysu budynku dla powierzchni kwadratowej. Kilka wyników uzyskanych przy użyciu algorytmu grupowania k-średnich w celu wyodrębnienia śladów budynków pokazano na rysunku .

Wyodrębnione ślady wszystkich budynków ze zdjęć satelitarnych pokazano na rysunku.

Całkowita powierzchnia dachu budynku GBPIET w Ghurdauri wynosi 34 462 m2. Z tej całkowitej powierzchni dachu 70%, tj. 24 124 m2 zostało uwzględnione do oszacowania potencjału słonecznego. 30% powierzchni zostało zarezerwowane pod infrastrukturę i konserwację fotowoltaiki słonecznej. Intensywne obliczeniowo zadania polegające na znalezieniu optymalnego kąta pochylenia i pochylenia GHI zostały wykonane przy użyciu architektury Hadoop w chmurze obliczeniowej XenCenter. Wartość optymalnego kąta pochylenia uzyskanego  po kilku iteracjachi i walidacjia z wykorzystaniem wygenerowanych i przewidywanych wyjść PV na dachach GBPIET, Ghurdauri wynosi około 20,18°

Przy tym kącie nachylenia panele fotowoltaiczne są w stanie wytworzyć maksymalny kwant energii elektrycznej z energii słonecznej. Podobne podejście można zastosować również w innych lokalizacjach. Ocena tego kąta pochylenia została również potwierdzona lokalnymi danymi GHI (piranometrycznymi) i danymi meteorologicznymi. Wartości GHI pochodzące z NREL zostały wykorzystane do oszacowania miesięcznych i rocznych oszacowań nasłonecznienia przy nachylonej fotowoltaice słonecznej. Wartości GHI w ujęciu miesięcznym/rocznym przedstawia tabela

Natychmiastowe oszacowanie nasłonecznienia za pomocą piranometru zostało obliczone i stwierdzono, że jest on w stanie spełnić pełne wymagania energetyczne, jak pokazano w tabeli

To pokazuje, że oszacowany potencjał słoneczny jest wystarczający do uzupełnienia zapotrzebowania na energię elektryczną GBPIET, Ghurdauri. Wartości irradiancji wahają się od 4 do 6 kWh/m2/dzień, 6-6,8 kWh/m2/dzień, 3,5-5,5 kWh/m2/dzień i 6,9-7,1 kWh/m2/dzień przy użyciu CAMS McClear, NASA POWER, SMART, i odpowiednio pochylony GHI. Wartości RMSE uzyskane między irradiancjami za pomocą nachylonego GHI i modeli pochodzących z satelitów wynoszą 0,30 (CAMS McClear), 0,12 (NASA POWER) i 0,31 (SMARTS). Wartości uzyskane za pomocą modelu CAMS McClear wykorzystują warunki pogodowe w czasie rzeczywistym za pomocą usług internetowych i dostarczają wartości irradiancji. NASA POWER wykorzystuje produkty pochodzące z satelitów i parametry meteorologiczne w celu zapewnienia wartości napromieniowania. Mapa zasobów słonecznych uzyskana za pomocą modelu NASA POWER jest bardzo dokładna do pomiarów naziemnych, tj. piranometru. Zostało to potwierdzone odczytem uzyskanym przy użyciu piranometru i pochylonego GHI. W związku z tym na podstawie tych badań wyciągnięto wniosek, że model NASA POWER daje wartości bliższe pochylonemu GHI, potwierdzonemu za pomocą odczytów piranometrycznych. Ocena tych modeli została przeprowadzona przy użyciu wartości RMSE uzyskanych pomiędzy modelami pochodzącymi z satelity (CAMS McClear, SMARTS i NASA POWER) a podejściem nachylonym GHI. Wartość RMSE uzyskana dla NASA POWER wynosi 0,12. Wskazuje to na dobrą korelację z rozwiniętym podejściem pochylonego GHI.

Nauka struktur sieciowych Bayesa z ukrytymi zmiennymi

https://aie24.pl/

Omówiliśmy problem uczenia się struktur sieci Bayesa z pełnymi danymi. Kiedy nieobserwowane zmienne wpływają na obserwowane dane, sprawy stają się trudniejsze. W najprostszym przypadku ekspert może powiedzieć algorytmowi uczącemu się, że istnieją pewne ukryte zmienne, pozostawiając algorytmowi znalezienie dla nich miejsca w strukturze sieci.  Podobnie jak w przypadku kompletnych danych, cały algorytm ma zewnętrzną pętlę, która przeszukuje struktury i wewnętrzną pętlę, która pasuje do parametrów sieci danej struktury. Jeśli algorytm uczący nie jest informowany o tym, które ukryte zmienne istnieją, są dwie możliwości: albo udawać, że dane są naprawdę kompletne – co może zmusić algorytm do uczenia się modelu z dużą ilością parametrów, -lub wymyśl nowe ukryte zmienne, aby uprościć model. To drugie podejście może zostać zaimplementowane poprzez uwzględnienie w wyszukiwaniu struktury nowych opcji modyfikacji: oprócz modyfikowania linków algorytm może dodać lub usunąć ukrytą zmienną lub zmienić jej arność. Oczywiście algorytm nie będzie wiedział, że wymyślona przez niego nowa zmienna nazywa się HeartDisease; nie będzie też miał znaczących nazw dla wartości. Na szczęście nowo wynalezione ukryte zmienne będą zwykle połączone z wcześniej istniejącymi zmiennymi, więc ekspert może często sprawdzić lokalne rozkłady warunkowe dotyczące nowej zmiennej i ustalić jej znaczenie. Podobnie jak w przypadku pełnych danych, samo uczenie się struktury maksymalnego prawdopodobieństwa spowoduje powstanie całkowicie połączonej sieci (co więcej, takiej, w której nie ma ukrytych zmiennych), więc wymagana jest pewna forma kary za złożoność. Możemy również zastosować MCMC do próbkowania wielu możliwych struktur sieciowych, tym samym przybliżając uczenie bayesowskie. Na przykład możemy nauczyć się mieszanin Gaussów o nieznanej liczbie składników, próbując ponad liczbę; przybliżony rozkład a posteriori dla liczby Gaussów jest podany przez częstotliwości próbkowania procesu MCMC. W przypadku pełnych danych wewnętrzna pętla do nauki parametrów jest bardzo szybka  wystarczy wyodrębnić częstotliwości warunkowe ze zbioru danych. Gdy istnieją ukryte zmienne, wewnętrzna pętla może obejmować wiele iteracji EM lub algorytmu opartego na gradiencie, a każda iteracja obejmuje obliczenie a posteriori w sieci Bayesa, co samo w sobie jest problemem NP-trudnym. Do tej pory takie podejście okazało się niepraktyczne w przypadku uczenia się złożonych modeli. Jednym z możliwych ulepszeń jest tak zwany algorytm strukturalny EM, który działa w bardzo podobny sposób jak zwykły (parametryczny) EM, z tą różnicą, że algorytm może aktualizować zarówno strukturę, jak i parametry. Tak jak zwykły EM używa bieżących parametrów do obliczenia oczekiwanych zliczeń w kroku E, a następnie stosuje te zliczenia w kroku M do wyboru nowych parametrów, strukturalny EM używa bieżącej struktury do obliczenia oczekiwanych zliczeń, a następnie stosuje te zliczenia w kroku M M-krok do oceny prawdopodobieństwa potencjalnych nowych struktur. (To kontrastuje z metodą pętli zewnętrznej/pętli wewnętrznej, która oblicza nowe oczekiwane liczby dla każdej potencjalnej struktury). W ten sposób strukturalna EM może dokonać kilku zmian strukturalnych w sieci bez ponownego obliczania oczekiwanych zliczeń i jest w stanie uczenie nietrywialnych struktur sieciowych Bayesa. Strukturalny EM ma raczej przestrzeń poszukiwań nad przestrzenią struktur niż przestrzenią struktur i parametrów. Niemniej jednak, wiele pozostaje do zrobienia, zanim będziemy mogli powiedzieć, że problem uczenia się struktury został rozwiązany.

AI : Technologie, Aplikacje i Wyzwania : Metodologia

https://aie24.pl/

W tej proponowanej metodologii wdrożono najnowsze technologie, takie jak MapReduce i IoT, w celu przewidywania potencjału słonecznego lokalizacji. Przeanalizowano studium wykonalności w celu zastosowania fotowoltaiki (PV) na dachu budynku. To badanie zostało przeprowadzone w celu zintegrowania technologii takie jak przetwarzanie w chmurze, big data, teledetekcja, GIS i programowanie do tworzenia miesięcznych i rocznych map zasobów słonecznych. Dane meteorologiczne z dwudziestu dziewięciu lat zostały przetworzone w równoległym środowisku obliczeniowym przy użyciu MapReduce do przewidywania potencjału energii słonecznej. Citrix XenCenter, goły metal hypervisor, został wykorzystany do stworzenia środowiska cloud computing. Dane GHI z kilku lokalizacji uzyskano metodami pochodzącymi z satelity, takimi jak baza danych Narodowego Laboratorium Energii Odnawialnej (NREL) oraz na poziomie lokalnym przy użyciu piranometru. Inne modele GHI pochodzące z satelitów, takie jak Copernicus Atmosphere Monitoring Service (CAMS) McClear, Simple Model of the Atmospheric Radiative Transfer of Sunshine (SMARTS), globalny atlas słoneczny i NASA Prediction of Worldwide Energy Resources (POWER), również zostały ocenione w tej pracy badawczej. GHI uzyskano z NREL, CAMS McClear, SMART i NASA POWER, a także przy użyciu piranometru z lokalnymi zmiennymi środowiskowymi. Proponowaną metodologię przedstawiono na rysunku

Dane z piranometru i dane NREL pochodzące z satelitów zostały wykorzystane w tych badaniach do oszacowania potencjału słonecznego. Modele pochodzące z satelitów, takie jak CAMS McClear, SMART i NASA POWER, zostały ocenione na podstawie lokalnych zmiennych środowiskowych przy użyciu danych z piranometru. Algorytm grupowania k-średnich został zastosowany do obrazów satelitarnych o wysokiej rozdzielczości z Google Earth Pro w celu wyodrębnienia śladów budynków w celu oszacowania potencjału słonecznego. India Census 2011 oraz dane socjoekonomiczne zostały wykorzystane do oszacowania zapotrzebowania na energię instytutu. Te zbiory danych najlepiej uznano za przetwarzane na platformie Big Data przy użyciu Hadoop, a potencjał słoneczny został oszacowany.

Ogólna postać algorytmu EM

https://aie24.pl/

Widzieliśmy kilka przykładów algorytmu EM. Każda z nich obejmuje obliczenie oczekiwanych wartości ukrytych zmiennych dla każdego przykładu, a następnie ponowne obliczenie parametrów, używając oczekiwanych wartości tak, jakby były wartościami zaobserwowanymi. Niech x będzie wszystkimi obserwowanymi wartościami we wszystkich przykładach, niech Z oznacza wszystkie ukryte zmienne we wszystkich przykładach i niech θ będzie wszystkimi parametrami modelu prawdopodobieństwa. Wtedy algorytm EM to

To równanie to w skrócie algorytm EM. Krok E to obliczenie sumy, która jest oczekiwaniem logarytmicznego prawdopodobieństwa „ukończonych” danych w odniesieniu do rozkładu P(Z=z |x, θ(i)), który jest a posteriori ukrytych zmienne, biorąc pod uwagę dane. Krok M to maksymalizacja tego oczekiwanego prawdopodobieństwa logarytmicznego w odniesieniu do parametrów. W przypadku mieszanek Gaussa ukrytymi zmiennymi są Zijs, gdzie Zij wynosi 1, jeśli przykład j został wygenerowany przez komponent i. Dla sieci Bayesa Zij jest wartością nieobserwowanej zmiennej Xi w przykładzie j. W przypadku HMM Zjt jest stanem sekwencji w przykładzie j w czasie t. Począwszy od postaci ogólnej, możliwe jest wyprowadzenie algorytmu EM dla konkretnej aplikacji po zidentyfikowaniu odpowiednich ukrytych zmiennych. Gdy tylko zrozumiemy ogólną ideę EM, łatwo będzie wyprowadzić wszelkiego rodzaju warianty i ulepszenia. Na przykład w wielu przypadkach krok E -krok obliczanie a posteriori ukrytych zmiennych – jest niewykonalny, jak w dużych sieciach Bayesa. Okazuje się, że można użyć przybliżonego E-kroku i nadal uzyskać skuteczny algorytm uczenia się. Dzięki algorytmowi próbkowania, takim jak MCMC, proces uczenia się jest bardzo intuicyjny: każdy stan (konfiguracja ukrytych i obserwowanych zmiennych) odwiedzony przez MCMC jest traktowany dokładnie tak, jakby był kompletną obserwacją. Dzięki temu parametry można aktualizować bezpośrednio po każdym przejściu MCMC. Inne formy wnioskowania przybliżonego, takie jak metody wariacyjne i zapętlona propagacja przekonań, również okazały się skuteczne w uczeniu się bardzo dużych sieci.

AI : Technologie, Aplikacje i Wyzwania : Obszar badań i wykorzystane dane

https://aie24.pl/

Obszar badawczy wybrany do tego badania to Instytut Inżynierii i Technologii Govind Ballabh Pant (GBPIET), Ghurdauri, położony w dzielnicy Pauri Garhwal w Uttarakhand w Indiach

Wybrany obszar badań położony jest na terenie pagórkowatym. Niniejsze badanie zostało wybrane do oceny globalnego napromieniowania poziomego (GHI) na wysokości wyższej niż regiony płaskie. Pomogło to w zrozumieniu wpływu zanieczyszczeń i aerozoli na GHI. Badanie terenowe piranometryczne zostało przeprowadzone 17 września 2018 r., jak pokazano.

Dane satelitarne badanego obszaru zostały pobrane za pomocą Google Earth i Elshayal Smart GIS . Cała powierzchnia została obciążona w 40 częściach. Te 40 części zostało ułożonych mozaikowo za pomocą ArcMap, aby uzyskać pełne badanie do analizy GIS.  Do oceny potencjału słonecznego badanego obszaru wykorzystano dane meteorologiczne z 29 lat (1989-2017).