tryck âïž sĂ„ fĂ„r du se den, men rör inte min slider
inte sÄ lÀtt va? dra ner slidern lite sÄ kanske din sÄsiga hjÀrna kan hÀnga med
đ€
dags att PIDa
|Kp:
|Ki:
|Kd:
HÀr Àr nÄgra olika PIDs med olika parametrar, kan vÀl vara kul att se... den högra kan man stÀlla in sjÀlv
Testa och se om du kan hitta bÀttre PID-vÀrden Àn jag och maila dom till mig pÄ: hatiwiy466@temp-mail.org
PIDsen presterar bara bra för att dom inte behöver bry sig om balans, den gasar alltid symetriskt sÄ rotationen alltid Àr 0 (testa "G" i 1)
För fĂ„ mer kontroll mĂ„ste man anvĂ€nda mer avancerad reglerteknik...đŽ eller? đČ
đ§
Artificiella neuroner
Artificiella neurala nÀtverk Àr universella funktionsapproximatorer, sÄ med tillrÀckligt mÄnga lager borde det gÄ att flyga min drone
Minns du hur NN fungerar? inte...? HÀr Àr en recap:
Vi tar ett neuron med 2 inputs och 1 output, neuronen har 2 vikter (W) och en bias (B)
VĂ„r output y = ReLU(WâX+B)
ReLU Àr vÄr aktiveringsfunktion som ger nÀtverk möjligheten att approximera olinjÀritet [ReLU(x) = max(0, x)]
Leaky ReLU Àr ett alternativ till den vanliga som gör att aktiveringsfunktionen fÄr nollskild derivata för inputs mindre Àn 0 (vilket inte kommer spela roll hÀr)
Vi har 2 numeriska vÀrden in, 1 numeriskt vÀrde ut i vÄr neuron: y = f(x1, x2)
Nu kan vi se vad en ensam neuron kan lÀra sig, addition?
x1
x2
y
0
0
0
1
1
0
1
1
=>
W1
W2
B
X1
X2
Y
=>
Loss
StÀll in trÀningsvÀrdena till vÀnster och tryck "kör"
Kolla outputen Y frÄn den trÀnade neuronen genom X1, X2
Testa att trÀna in en OR-gate, AND-gate och XOR-gate.
Fuzzy Logic
Den lÀr sig genom att minimera en kostnadsfunktion Cost(r, y) = 1/2 * (r - y)^2
Men hur?
đ§Ź
hÀnger du me?
đ§«
Lager av neuroner
Vi seriekopplar flera neuroner för att approximera mer komplexa funktioner