Select Git revision
FilesView.vue
Code owners
Assign users and groups as approvers for specific file changes. Learn more.
01data 1.38 KiB
<frame>
<ignore>first thougth: chance l2 to ln</ignore>
<split>
<que>
<list>
<e>Eine erste Idee könnte es sein, die Norm zu verändern</e>
<e>l1 anstatt l2 hätte den Vorteil, das einmal falsch zu raten nicht schlimmer ist, als zweimal halb so falsch zu raten</e>
<e>Außerdem verändert das die Invertierbarkeit nicht</e>
<e>Aber es zeigt sich, das das dafür sorgt, das das Netzwerk lieber einen großen Fehler in Kauf nimmt als mehrere Sachen falsch zu machen (auf l1 und l 0.5, l3 zeigt im grunde keine Unterschiede zu l2)</e>
</list>
</que>
<que>
<i f="rtvl log 0 -9" f2="rootdraw16">oben: ln verändert nicht die invertierbarkeit, unten:beipielbild eines l 0.5 netzwerk</i>
</que>
</split>
</frame>
<frame>
<ignore>gewichte loss mit pt</ignore>
<split>
<que>
<list>
<e>Eine andere Idee wäre es Events einfach zu gewichten</e>
<e>möglich wäre das z.B. mit #p_T#</e>
<e>Die Frage bleibt wie?</e>
<l2st>
<e>#p_T# fällt stark ab, also würde ein lineares gewicht dafür sorgen, das die letzten Teilchen im Grunde egal sind</e>
<e>#ln(p_T)**alpha# kann je nach #alpha# durchaus nur einem Faktor 2 entsprechen, außerdem ist #alpha# arbitrary</e>
</l2st>
<e>verwirrt das Netzwerk, und gewichtete Netzwerke ist schlechterer Autoencoder</e>
</list>
</que>
<que>
<i f="ptdraw16" f2="ptweigdraw16">pt verteilung für ein oben: ungewichtetes, unten: pt gewichtetes Netzwerk</i>
</que>
</split>
</frame>