Dodaj se napake v metrih

main
Gašper Spagnolo 2023-09-03 15:04:33 +02:00
parent 290002e342
commit 0eadb818b7
No known key found for this signature in database
GPG Key ID: 2EA0738CC1EFEEB7
2 changed files with 31 additions and 29 deletions

Binary file not shown.

View File

@ -913,7 +913,7 @@ Na sliki \ref{fig:siamese} je prikazana skica siamske mreže uporabljene za prim
\begin{figure}[h]
\centering
\includegraphics[width=\textwidth]{./img/siamese_net.png}
\includegraphics[width=0.9\textwidth]{./img/siamese_net.png}
\caption{Skica siamske mreže, model SigNet \cite{dey2017signet}}
\label{fig:siamese}
\end{figure}
@ -1473,17 +1473,17 @@ da je Hanningova kriterijska funkcija optimalna izbira za geolokalizacijo brezpi
\begin{table}[ht]
\centering
\begin{tabular}{|c|c|c|c|}
\begin{tabular}{|c|c|c|c|c|}
\hline
Kriterijska funkcija & vrednost & $RDS_{\text{train}}$ & $RDS_{\text{val}}$ \\
Kriterijska funkcija & vrednost & $RDS_{\text{train}}$ & $RDS_{\text{val}}$ & $\overline{\Delta_m}$ [m] \\
\hline
Hanningova kriterijska funkcija & 8.49 & 0.893 & 0.709 \\
Gaussovo utezena srednja kvadratna napaka & 0.001 & 0.077 & 0.074 \\
Hanningovo utežena srednja kvadratna napaka & 4.04e-06 & 0.061 & 0.059 \\
Križno utežena srednja kvadratna napaka & 0.007 & 0.07 & 0.06 \\
Hanningova kriterijska funkcija & 8.49 & 0.893 & 0.709 & 43.42 \\
Gaussovo utezena srednja kvadratna napaka & 0.001 & 0.077 & 0.074 & 234.48 \\
Hanningovo utežena srednja kvadratna napaka & 4.04e-06 & 0.061 & 0.059 & 232.55\\
Križno utežena srednja kvadratna napaka & 0.007 & 0.07 & 0.06 & 242.70\\
\hline
\end{tabular}
\caption{Rezultati ob uporabi razlicnih kriterijskih funkij.}
\caption{Rezultati ob uporabi razlicnih kriterijskih funkij. Kjer je $\overline{\Delta_m}$ povprečna napaka v metrih.}
\label{tab:metode}
\end{table}
@ -1588,24 +1588,24 @@ Slabosti stratificiranega vzorčenja:
\begin{enumerate}
\item \textbf{Omejena Generalizacija}:
Čeprav stratificirano vzorčenje zagotavlja, da so vse kategorije ali razredi v naboru podatkov ustrezno zastopani v vzorcu, to lahko pomeni, da model morda ni tako dobro pripravljen na povsem nove, nevidene podatke.
Model je lahko optimiziran za specifično distribucijo podatkov, ki je bila uporabljena med ucenjem in validacijo.
Model je lahko optimiziran za specifično distribucijo podatkov, ki je bila uporabljena med učenjem in validacijo.
\item \textbf{"In-Distribution" Validacija}
Ker se vzorci za ucenje in validacijo izbirajo iz iste distribucije (stratificirane distribucije), model morda ne bo dobro deloval na "out-of-distribution" podatkih.
Ker se vzorci za učenje in validacijo izbirajo iz iste distribucije (stratificirane distribucije), model morda ne bo dobro deloval na "out-of-distribution" podatkih.
To pomeni, da čeprav model morda kaže visoko natančnost na validacijskem naboru, to ne zagotavlja, da bo enako dobro deloval na podatkih, ki se močno razlikujejo od originalne distribucije.
\end{enumerate}
\subsection{Rezultati}
\begin{table}[ht]
\centering
\begin{tabular}{|c|c|c|c|}
\begin{tabular}{|c|c|c|c|c|}
\hline
Nacin & Hanningova izguba & $RDS_{\text{train}}$ & $RDS_{\text{val}}$ \\
Način & Hanningova izguba & $RDS_{\text{train}}$ & $RDS_{\text{val}}$ & $\overline{\Delta_m}$ [m] \\
\hline
Originalno učenje & 8.49 & 0.893 & 0.709 \\
Učenje s stratificiranim vzorčenjem & 3.17 & 0.750 & 0.731 \\
Originalno učenje & 8.49 & 0.893 & 0.709 & 43.42 \\
Učenje s stratificiranim vzorčenjem & 3.17 & 0.750 & 0.731 & 17.89 \\
\hline
\end{tabular}
\caption{Rezultati ob uporabi stratificiranega uzorcenja.}
\caption{Rezultati ob uporabi stratificiranega uzorcenja. Kjer je $\overline{\Delta_m}$ povprečna napaka v metrih.}
\label{tab:stratified}
\end{table}
@ -1613,11 +1613,13 @@ Iz rezultatov \ref{tab:stratified} je razvidno, da je uporaba stratificiranega v
Za boljše razumevanje uspešnosti modelov je ključno upoštevati tudi njihovo zmogljivost na validacijskih naborih podatkov.
To je še posebej pomembno, saj nam validacija daje vpogled v to, kako dobro model predvideva rezultate na nevidenih podatkih.
Če primerjamo rezultate $RDS_{\text{val}}$ med obema pristopoma, opazimo, da je model, ki je bil naučen s stratificiranim vzorčenjem, dosegel rahlo višjo uspešnost (0.731) v primerjavi z modelom, ki je bil naučen s tradicionalno metodo "train-test split" (0.709).
Če primerjamo rezultate $RDS_{\text{val}}$ med obema pristopoma, opazimo, da je model,
ki je bil naučen s stratificiranim vzorčenjem, dosegel rahlo višjo uspešnost (0.731) v primerjavi z modelom, ki je bil naučen s tradicionalno metodo "train-test split" (0.709).
To kaže, da se je model, ki je bil naučen s stratificiranim vzorčenjem, nekoliko bolje spoprijel s generalizacijo na nevidenih podatkih.
To dejstvo podkrepi tudi zmanjšana razlika med uspešnostjo na učni in validacijski množici v primeru stratificiranega vzorčenja.
Večja konsistentnost rezultatov med učno in validacijsko množico je lahko pokazatelj, da model ni pretirano prilagojen in se lahko bolje generalizira na nove podatke.
Torej, medtem ko je tradicionalna "train-test split" metoda dosegla višjo uspešnost na učni množici, se zdi, da stratificirano vzorčenje ponuja bolj zanesljive in stabilne rezultate na validacijski množici, kar je ključnega pomena za ocenjevanje realne zmogljivosti modela.
Torej, medtem ko je originalna metoda dosegla višjo uspešnost na učni množici, se zdi,
da stratificirano vzorčenje ponuja bolj zanesljive in stabilne rezultate na validacijski množici, kar je ključnega pomena za ocenjevanje realne zmogljivosti modela.
V našem primeru se zdi, da stratificirano vzorčenje ponuja bolj robusten in stabilen model za obravnavane satelitske slike.
Vendar pa je pomembno upoštevati tudi omejitve stratificiranega vzorčenja, kot so omejena generalizacija in potencialne težave pri "out-of-distribution" podatkih.
@ -1712,7 +1714,7 @@ V svetu strojnega učenja je regularizacija ključna tehnika, ki se uporablja za
Prekomerno prilagajanje se pojavi, ko model postane preveč specifičen za učni nabor podatkov, kar pomeni, da se "preveč nauči" podrobnosti in šuma v učnih podatkih,
kar vodi v slabo zmogljivost na novih, nevidenih podatkih.
Med različnimi tehnikami regularizacije je "izpuščanje nevronov" (ang. dropout) ena izmed najbolj priljubljenih in učinkovitih metod za nevronske mreže.
Koncept izpuščanja nevronov je preprost, a močan: med ucenjem se določen odstotek nevronov v mreži naključno "izklopi" ali izpusti. To pomeni, da se med posameznim prehodom naprej določeni nevroni (in njihove povezave) začasno odstranijo iz mreže.
Koncept izpuščanja nevronov je preprost, a močan: med učenjem se določen odstotek nevronov v mreži naključno "izklopi" ali izpusti. To pomeni, da se med posameznim prehodom naprej določeni nevroni (in njihove povezave) začasno odstranijo iz mreže.
V modelu smo uporabili izpuščanje nevronov na več ključnih mestih:
@ -1774,16 +1776,16 @@ pos\_drops & 0.1 & 0.05 & - \\
\begin{table}[ht]
\centering
\begin{tabular}{|c|c|c|c|}
\begin{tabular}{|c|c|c|c|c|}
\hline
Nacin & Hanningova izguba & $RDS_{\text{train}}$ & $RDS_{\text{val}}$ \\
Način & Hanningova izguba & $RDS_{\text{train}}$ & $RDS_{\text{val}}$ & $\overline{\Delta_m}$ [m] \\
\hline
Brez izpuscanja nevronov & 8.49 & 0.893 & 0.709 \\
Z uravnovesenim izpuscanjem nevronov & 5.49 & 0.725 & 0.690 \\
Z neuravnovesenim izpuscanjem nevronov & 5.42 & 0.725 & 0.719 \\
Brez izpuscanja & 8.49 & 0.893 & 0.709 & 43.42 \\
Z uravnovesenim izpuscanjem & 5.49 & 0.725 & 0.690 & 21.67\\
Z neuravnovesenim izpuscanjem & 5.42 & 0.725 & 0.719 & 18.11\\
\hline
\end{tabular}
\caption{Rezultati ob uporabi razlicnih izpustov.}
\caption{Rezultati ob uporabi razlicnih izpustov. Kjer je $\overline{\Delta_m}$ povprečna napaka v metrih.}
\label{tab:izpuscanje}
\end{table}
@ -1801,15 +1803,15 @@ To poudarja prednost prenosa znanja iz prednaučenih modelov na specifične nalo
\begin{table}[ht]
\centering
\begin{tabular}{|c|c|c|c|}
\begin{tabular}{|c|c|c|c|c|}
\hline
Nacin & Hanningova izguba & $RDS_{\text{train}}$ & $RDS_{\text{val}}$ \\
Način & Hanningova izguba & $RDS_{\text{train}}$ & $RDS_{\text{val}}$ & $\overline{\Delta_m}$ [m] \\
\hline
Prednaučena mreža & 8.49 & 0.893 & 0.709 \\
Brez uporabe prednaučene mreže & 8.21 & 0.627 & 0.630 \\
Prednaučena mreža & 8.49 & 0.893 & 0.709 & 43.42 \\
Brez uporabe prednaučene mreže & 8.21 & 0.627 & 0.630 & 60.23 \\
\hline
\end{tabular}
\caption{Rezultati ob uporabi razlicnih izpustov.}
\caption{Rezultati ob uporabi razlicnih izpustov. Kjer je $\overline{\Delta_m}$ povprečna napaka v metrih.}
\label{tab:prednaucena}
\end{table}