https://de.wikipedia.org/w/index.php?action=history&feed=atom&title=Convolutional_Neural_Network
Convolutional Neural Network - Versionsgeschichte
2025-05-29T21:17:57Z
Versionsgeschichte dieser Seite in Wikipedia
MediaWiki 1.45.0-wmf.3
https://de.wikipedia.org/w/index.php?title=Convolutional_Neural_Network&diff=256392123&oldid=prev
Wüstenspringmaus: Änderungen von 95.90.179.29 (Diskussion) auf die letzte Version von 193.174.67.20 zurückgesetzt
2025-05-27T08:07:48Z
<p>Änderungen von <a href="/wiki/Spezial:Beitr%C3%A4ge/95.90.179.29" title="Spezial:Beiträge/95.90.179.29">95.90.179.29</a> (<a href="/w/index.php?title=Benutzer_Diskussion:95.90.179.29&action=edit&redlink=1" class="new" title="Benutzer Diskussion:95.90.179.29 (Seite nicht vorhanden)">Diskussion</a>) auf die letzte Version von <a href="/wiki/Benutzer:193.174.67.20" title="Benutzer:193.174.67.20">193.174.67.20</a> zurückgesetzt</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 27. Mai 2025, 10:07 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 1:</td>
<td colspan="2" class="diff-lineno">Zeile 1:</td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Ein '''Convolutional Neural Network''' ('''CNN''' oder '''ConvNet'''), zu Deutsch etwa „[[Faltung (Mathematik)|faltendes]] neuronales Netzwerk“, ist ein [[künstliches neuronales Netz]]. Es handelt sich um ein von biologischen Prozessen inspiriertes Konzept im Bereich des [[Maschinelles Lernen|maschinellen Lernens]]<ref name="robust face detection">{{Literatur |Autor=Masakazu Matsugu, Katsuhiko Mori, Yusuke Mitari, Yuji Kaneda |Titel=Subject independent facial expression recognition with robust face detection using a convolutional neural network |Sammelwerk=Neural Networks |Band=16 |Nummer=5 |Datum=2003 |Seiten=555–559 |Online=[http://www.iro.umontreal.ca/~pift6080/H09/documents/papers/sparse/matsugo_etal_face_expression_conv_nnet.pdf Online] |Abruf=2017-05-28 |DOI=10.1016/S0893-6080(03)00115-1}}</ref>. ''Convolutional Neural Networks'' finden Anwendung in zahlreichen Technologien der [[Künstliche Intelligenz|künstlichen Intelligenz]], vornehmlich bei der maschinellen Verarbeitung von <del style="font-weight: bold; text-decoration: none;">B[[Kunihiko</del> <del style="font-weight: bold; text-decoration: none;">Fukushima|ko</del> <del style="font-weight: bold; text-decoration: none;">Fukushima]] unter dem Namen Neocognitron eingeführtCVHVHDVGSVVGVHD,<CHNNNCJCMYCDCJCJCCHJHJDMYNbhbnhjCHBSCBHC,<CHCBBCBCJC</del></div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Ein '''Convolutional Neural Network''' ('''CNN''' oder '''ConvNet'''), zu Deutsch etwa „[[Faltung (Mathematik)|faltendes]] neuronales Netzwerk“, ist ein [[künstliches neuronales Netz]]. Es handelt sich um ein von biologischen Prozessen inspiriertes Konzept im Bereich des [[Maschinelles Lernen|maschinellen Lernens]]<ref name="robust face detection">{{Literatur |Autor=Masakazu Matsugu, Katsuhiko Mori, Yusuke Mitari, Yuji Kaneda |Titel=Subject independent facial expression recognition with robust face detection using a convolutional neural network |Sammelwerk=Neural Networks |Band=16 |Nummer=5 |Datum=2003 |Seiten=555–559 |Online=[http://www.iro.umontreal.ca/~pift6080/H09/documents/papers/sparse/matsugo_etal_face_expression_conv_nnet.pdf Online] |Abruf=2017-05-28 |DOI=10.1016/S0893-6080(03)00115-1}}</ref>. ''Convolutional Neural Networks'' finden Anwendung in zahlreichen Technologien der [[Künstliche Intelligenz|künstlichen Intelligenz]], vornehmlich bei der maschinellen Verarbeitung von <ins style="font-weight: bold; text-decoration: none;">Bild-</ins> <ins style="font-weight: bold; text-decoration: none;">oder</ins> <ins style="font-weight: bold; text-decoration: none;">Audiodaten.</ins></div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div><del style="font-weight: bold; text-decoration: none;">CCHJC</del>.<ref name="fukushima1980">{{Literatur |Autor=Kunihiko Fukushima |Titel=Neocognitron: A Self-organizing Neural Network Model for a Mechanism of Pattern Recognition Unaffected by Shift in Position |Sammelwerk=Biological Cybernetics |Band=36 |Nummer=4 |Datum=1980 |Seiten=193–202 |Online=[https://www.cs.princeton.edu/courses/archive/spr08/cos598B/Readings/Fukushima1980.pdf Online] |DOI=10.1007/BF00344251}}</ref><ref name="schmidhuber2015">{{Literatur |Autor=Jürgen Schmidhuber |Titel=Deep Learning in Neural Networks: An Overview |Sammelwerk=Neural Networks |Band=61 |Datum=2015 |Seiten=85–117 |arXiv=1404.7828 |DOI=10.1016/j.neunet.2014.09.003}}</ref> [[Alex Waibel]]s CNN namens TDNN (1987) wurde durch [[Backpropagation]] trainiert <del style="font-weight: bold; text-decoration: none;">undCDCJCNCJCHJSCHJCNMY</del></div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div><ins style="font-weight: bold; text-decoration: none;">Die CNN-Architektur wurde von [[Kunihiko Fukushima]] unter dem Namen Neocognitron eingeführt</ins>.<ref name="fukushima1980">{{Literatur |Autor=Kunihiko Fukushima |Titel=Neocognitron: A Self-organizing Neural Network Model for a Mechanism of Pattern Recognition Unaffected by Shift in Position |Sammelwerk=Biological Cybernetics |Band=36 |Nummer=4 |Datum=1980 |Seiten=193–202 |Online=[https://www.cs.princeton.edu/courses/archive/spr08/cos598B/Readings/Fukushima1980.pdf Online] |DOI=10.1007/BF00344251}}</ref><ref name="schmidhuber2015">{{Literatur |Autor=Jürgen Schmidhuber |Titel=Deep Learning in Neural Networks: An Overview |Sammelwerk=Neural Networks |Band=61 |Datum=2015 |Seiten=85–117 |arXiv=1404.7828 |DOI=10.1016/j.neunet.2014.09.003}}</ref> [[Alex Waibel]]s CNN namens TDNN (1987) wurde durch [[Backpropagation]] trainiert <ins style="font-weight: bold; text-decoration: none;">und erzielte Bewegungsinvarianz.<ref name="Waibel1987">{{cite conference |title=Phoneme Recognition Using Time-Delay Neural Networks |language=en |last=Waibel |first=Alex |year=1987 |conference=Meeting of the Institute of Electrical, Information and Communication Engineers (IEICE), Tokyo, Japan, 1987 }}</ref> Auch [[Yann LeCun]] publizierte wichtige Beiträge zu CNNs.<ref name="lecun1989">Y. LeCun, B. Boser, J. S. Denker, D. Henderson, R. E. Howard, W. Hubbard, L. D. Jackel, [http://yann.lecun.com/exdb/publis/pdf/lecun-89e.pdf Backpropagation Applied to Handwritten Zip Code Recognition]; AT&T Bell Laboratories, 1989</ref><ref>{{Literatur |Autor=Yann LeCun, Leon Bottou, Yoshua Bengio, Patrick Haffner |Titel=Gradient-based Learning Applied to Document Recognition |Sammelwerk=Proceedings of the IEEE |Datum=1998 |Online=http://yann.lecun.com/exdb/publis/pdf/lecun-01a.pdf |Format=PDF |KBytes=}}</ref></ins></div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td colspan="2" class="diff-empty diff-side-added"></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>erzielte Bewegungsinvarianz.<ref name="Waibel1987">{{cite conference |title=Phoneme Recognition Using Time-Delay Neural Networks |language=en |last=Waibel |first=Alex |year=1987 |conference=Meeting of the Institute of Electrical, Information and Communication Engineers (IEICE), Tokyo, Japan, 1987 }}</ref> Auch [[Yann LeCun]] publizierte wichtige Beiträge zu CNNs.<ref name="lecun1989">Y. LeCun, B. Boser, J. S. Denker, D. Henderson, R. E. Howard, W. Hubbard, L. D. Jackel, [http://yann.lecun.com/exdb/publis/pdf/lecun-89e.pdf Backpropagation Applied to Handwritten Zip Code Recognition]; AT&T Bell Laboratories, 1989</ref><ref>{{Literatur |Autor=Yann LeCun, Leon Bottou, Yoshua Bengio, Patrick Haffner |Titel=Gradient-based Learning Applied to Document Recognition |Sammelwerk=Proceedings of the IEEE |Datum=1998 |Online=http://yann.lecun.com/exdb/publis/pdf/lecun-01a.pdf |Format=PDF |KBytes=}}</ref></div></td>
<td colspan="2" class="diff-empty diff-side-added"></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Aufbau ==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Aufbau ==</div></td>
</tr>
</table>
Wüstenspringmaus
https://de.wikipedia.org/w/index.php?title=Convolutional_Neural_Network&diff=256392094&oldid=prev
95.90.179.29: JDGWGJDWFJEBHFF
2025-05-27T08:06:17Z
<p>JDGWGJDWFJEBHFF</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 27. Mai 2025, 10:06 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 1:</td>
<td colspan="2" class="diff-lineno">Zeile 1:</td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Ein '''Convolutional Neural Network''' ('''CNN''' oder '''ConvNet'''), zu Deutsch etwa „[[Faltung (Mathematik)|faltendes]] neuronales Netzwerk“, ist ein [[künstliches neuronales Netz]]. Es handelt sich um ein von biologischen Prozessen inspiriertes Konzept im Bereich des [[Maschinelles Lernen|maschinellen Lernens]]<ref name="robust face detection">{{Literatur |Autor=Masakazu Matsugu, Katsuhiko Mori, Yusuke Mitari, Yuji Kaneda |Titel=Subject independent facial expression recognition with robust face detection using a convolutional neural network |Sammelwerk=Neural Networks |Band=16 |Nummer=5 |Datum=2003 |Seiten=555–559 |Online=[http://www.iro.umontreal.ca/~pift6080/H09/documents/papers/sparse/matsugo_etal_face_expression_conv_nnet.pdf Online] |Abruf=2017-05-28 |DOI=10.1016/S0893-6080(03)00115-1}}</ref>. ''Convolutional Neural Networks'' finden Anwendung in zahlreichen Technologien der [[Künstliche Intelligenz|künstlichen Intelligenz]], vornehmlich bei der maschinellen Verarbeitung von <del style="font-weight: bold; text-decoration: none;">Bild-</del> <del style="font-weight: bold; text-decoration: none;">oder</del> <del style="font-weight: bold; text-decoration: none;">Audiodaten.</del></div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Ein '''Convolutional Neural Network''' ('''CNN''' oder '''ConvNet'''), zu Deutsch etwa „[[Faltung (Mathematik)|faltendes]] neuronales Netzwerk“, ist ein [[künstliches neuronales Netz]]. Es handelt sich um ein von biologischen Prozessen inspiriertes Konzept im Bereich des [[Maschinelles Lernen|maschinellen Lernens]]<ref name="robust face detection">{{Literatur |Autor=Masakazu Matsugu, Katsuhiko Mori, Yusuke Mitari, Yuji Kaneda |Titel=Subject independent facial expression recognition with robust face detection using a convolutional neural network |Sammelwerk=Neural Networks |Band=16 |Nummer=5 |Datum=2003 |Seiten=555–559 |Online=[http://www.iro.umontreal.ca/~pift6080/H09/documents/papers/sparse/matsugo_etal_face_expression_conv_nnet.pdf Online] |Abruf=2017-05-28 |DOI=10.1016/S0893-6080(03)00115-1}}</ref>. ''Convolutional Neural Networks'' finden Anwendung in zahlreichen Technologien der [[Künstliche Intelligenz|künstlichen Intelligenz]], vornehmlich bei der maschinellen Verarbeitung von <ins style="font-weight: bold; text-decoration: none;">B[[Kunihiko</ins> <ins style="font-weight: bold; text-decoration: none;">Fukushima|ko</ins> <ins style="font-weight: bold; text-decoration: none;">Fukushima]] unter dem Namen Neocognitron eingeführtCVHVHDVGSVVGVHD,<CHNNNCJCMYCDCJCJCCHJHJDMYNbhbnhjCHBSCBHC,<CHCBBCBCJC</ins></div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div><del style="font-weight: bold; text-decoration: none;">Die CNN-Architektur wurde von [[Kunihiko Fukushima]] unter dem Namen Neocognitron eingeführt</del>.<ref name="fukushima1980">{{Literatur |Autor=Kunihiko Fukushima |Titel=Neocognitron: A Self-organizing Neural Network Model for a Mechanism of Pattern Recognition Unaffected by Shift in Position |Sammelwerk=Biological Cybernetics |Band=36 |Nummer=4 |Datum=1980 |Seiten=193–202 |Online=[https://www.cs.princeton.edu/courses/archive/spr08/cos598B/Readings/Fukushima1980.pdf Online] |DOI=10.1007/BF00344251}}</ref><ref name="schmidhuber2015">{{Literatur |Autor=Jürgen Schmidhuber |Titel=Deep Learning in Neural Networks: An Overview |Sammelwerk=Neural Networks |Band=61 |Datum=2015 |Seiten=85–117 |arXiv=1404.7828 |DOI=10.1016/j.neunet.2014.09.003}}</ref> [[Alex Waibel]]s CNN namens TDNN (1987) wurde durch [[Backpropagation]] trainiert <del style="font-weight: bold; text-decoration: none;">und </del>erzielte Bewegungsinvarianz.<ref name="Waibel1987">{{cite conference |title=Phoneme Recognition Using Time-Delay Neural Networks |language=en |last=Waibel |first=Alex |year=1987 |conference=Meeting of the Institute of Electrical, Information and Communication Engineers (IEICE), Tokyo, Japan, 1987 }}</ref> Auch [[Yann LeCun]] publizierte wichtige Beiträge zu CNNs.<ref name="lecun1989">Y. LeCun, B. Boser, J. S. Denker, D. Henderson, R. E. Howard, W. Hubbard, L. D. Jackel, [http://yann.lecun.com/exdb/publis/pdf/lecun-89e.pdf Backpropagation Applied to Handwritten Zip Code Recognition]; AT&T Bell Laboratories, 1989</ref><ref>{{Literatur |Autor=Yann LeCun, Leon Bottou, Yoshua Bengio, Patrick Haffner |Titel=Gradient-based Learning Applied to Document Recognition |Sammelwerk=Proceedings of the IEEE |Datum=1998 |Online=http://yann.lecun.com/exdb/publis/pdf/lecun-01a.pdf |Format=PDF |KBytes=}}</ref></div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div><ins style="font-weight: bold; text-decoration: none;">CCHJC</ins>.<ref name="fukushima1980">{{Literatur |Autor=Kunihiko Fukushima |Titel=Neocognitron: A Self-organizing Neural Network Model for a Mechanism of Pattern Recognition Unaffected by Shift in Position |Sammelwerk=Biological Cybernetics |Band=36 |Nummer=4 |Datum=1980 |Seiten=193–202 |Online=[https://www.cs.princeton.edu/courses/archive/spr08/cos598B/Readings/Fukushima1980.pdf Online] |DOI=10.1007/BF00344251}}</ref><ref name="schmidhuber2015">{{Literatur |Autor=Jürgen Schmidhuber |Titel=Deep Learning in Neural Networks: An Overview |Sammelwerk=Neural Networks |Band=61 |Datum=2015 |Seiten=85–117 |arXiv=1404.7828 |DOI=10.1016/j.neunet.2014.09.003}}</ref> [[Alex Waibel]]s CNN namens TDNN (1987) wurde durch [[Backpropagation]] trainiert <ins style="font-weight: bold; text-decoration: none;">undCDCJCNCJCHJSCHJCNMY</ins></div></td>
</tr>
<tr>
<td colspan="2" class="diff-empty diff-side-deleted"></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div></div></td>
</tr>
<tr>
<td colspan="2" class="diff-empty diff-side-deleted"></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>erzielte Bewegungsinvarianz.<ref name="Waibel1987">{{cite conference |title=Phoneme Recognition Using Time-Delay Neural Networks |language=en |last=Waibel |first=Alex |year=1987 |conference=Meeting of the Institute of Electrical, Information and Communication Engineers (IEICE), Tokyo, Japan, 1987 }}</ref> Auch [[Yann LeCun]] publizierte wichtige Beiträge zu CNNs.<ref name="lecun1989">Y. LeCun, B. Boser, J. S. Denker, D. Henderson, R. E. Howard, W. Hubbard, L. D. Jackel, [http://yann.lecun.com/exdb/publis/pdf/lecun-89e.pdf Backpropagation Applied to Handwritten Zip Code Recognition]; AT&T Bell Laboratories, 1989</ref><ref>{{Literatur |Autor=Yann LeCun, Leon Bottou, Yoshua Bengio, Patrick Haffner |Titel=Gradient-based Learning Applied to Document Recognition |Sammelwerk=Proceedings of the IEEE |Datum=1998 |Online=http://yann.lecun.com/exdb/publis/pdf/lecun-01a.pdf |Format=PDF |KBytes=}}</ref></div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Aufbau ==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Aufbau ==</div></td>
</tr>
</table>
95.90.179.29
https://de.wikipedia.org/w/index.php?title=Convolutional_Neural_Network&diff=248483121&oldid=prev
193.174.67.20: Grammatikfehler
2024-09-10T14:49:14Z
<p>Grammatikfehler</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 10. September 2024, 16:49 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 132:</td>
<td colspan="2" class="diff-lineno">Zeile 132:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Probleme ==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Probleme ==</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Neuronale Feedforward Netze können jede [[stetige Funktion]] der Form <math>f: X \in \R^n \to Y \in \R^m</math> annähern, dies wird durch das [[universelle Approximationstheorem]] garantiert. Es gibt jedoch keine Garantie dafür, dass das Training dies auch ermöglicht. Wird während dem Training keine Regularisierung verwendet, wird ein neuronales Netz [[Überanpassung|überangepasst]] auf das Rauschen in den Trainingsdaten. Durch die Verringerung der Modellkapazität durch Wiederverwendung der Gewichte mithilfe einer [[Faltung (Mathematik)|Faltung]] (als eine bestimmte Art der Regularisierung) kann<del style="font-weight: bold; text-decoration: none;"> man</del> die Tendenz zur Überanpassung verringert werden.</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Neuronale Feedforward Netze können jede [[stetige Funktion]] der Form <math>f: X \in \R^n \to Y \in \R^m</math> annähern, dies wird durch das [[universelle Approximationstheorem]] garantiert. Es gibt jedoch keine Garantie dafür, dass das Training dies auch ermöglicht. Wird während dem Training keine Regularisierung verwendet, wird ein neuronales Netz [[Überanpassung|überangepasst]] auf das Rauschen in den Trainingsdaten. Durch die Verringerung der Modellkapazität durch Wiederverwendung der Gewichte mithilfe einer [[Faltung (Mathematik)|Faltung]] (als eine bestimmte Art der Regularisierung) kann die Tendenz zur Überanpassung verringert werden.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Formal bedeutet dies, dass die Merkmale <math>X \to X'</math> transformiert werden, so dass, wenn <math>H(X)</math> die [[Entropie (Informationstheorie)|Entropie]] von <math>X</math> ist, dann gilt <math>H(X) \leq H(X')</math>. Dadurch kann das neuronale Netz eine neue Zielfunktion <math>g: f(X) \to g(X')</math> lernen, die weniger anfällig für Überanpassung ist. Dies wird dadurch ermöglicht, dass eine wichtige Voraussetzung, die [[lineare Unabhängigkeit]] der Merkmale, für einige Datenklassen systematisch verletzt wird.<ref>baeldung.com: [https://www.baeldung.com/cs/ai-convolutional-neural-networks ''Introduction to Convolutional Neural Networks'']</ref></div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Formal bedeutet dies, dass die Merkmale <math>X \to X'</math> transformiert werden, so dass, wenn <math>H(X)</math> die [[Entropie (Informationstheorie)|Entropie]] von <math>X</math> ist, dann gilt <math>H(X) \leq H(X')</math>. Dadurch kann das neuronale Netz eine neue Zielfunktion <math>g: f(X) \to g(X')</math> lernen, die weniger anfällig für Überanpassung ist. Dies wird dadurch ermöglicht, dass eine wichtige Voraussetzung, die [[lineare Unabhängigkeit]] der Merkmale, für einige Datenklassen systematisch verletzt wird.<ref>baeldung.com: [https://www.baeldung.com/cs/ai-convolutional-neural-networks ''Introduction to Convolutional Neural Networks'']</ref></div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
</table>
193.174.67.20
https://de.wikipedia.org/w/index.php?title=Convolutional_Neural_Network&diff=246847469&oldid=prev
Aka: typografische Anführungszeichen, Kleinkram
2024-07-17T20:29:53Z
<p>typografische Anführungszeichen, Kleinkram</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 17. Juli 2024, 22:29 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 6:</td>
<td colspan="2" class="diff-lineno">Zeile 6:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>[[Datei:Typical cnn.png|mini|395x395px|Struktur eines typischen CNNs zur [[Klassifizierung|Bildklassifikation]]. Subsampling entspricht Pooling. Dieses Netz besitzt pro Convolutional Layer mehrere [[Faltungsmatrix|Filterkernel]], sodass Schichten an Feature Maps entstehen, die jeweils die gleiche Eingabe bekommen, jedoch aufgrund unterschiedlicher Gewichtsmatrizen unterschiedliche Features extrahieren.]]</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>[[Datei:Typical cnn.png|mini|395x395px|Struktur eines typischen CNNs zur [[Klassifizierung|Bildklassifikation]]. Subsampling entspricht Pooling. Dieses Netz besitzt pro Convolutional Layer mehrere [[Faltungsmatrix|Filterkernel]], sodass Schichten an Feature Maps entstehen, die jeweils die gleiche Eingabe bekommen, jedoch aufgrund unterschiedlicher Gewichtsmatrizen unterschiedliche Features extrahieren.]]</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Grundsätzlich besteht die Struktur eines klassischen Convolutional Neural Networks aus einem oder mehreren Convolutional Layer, gefolgt von einem Pooling Layer.<del style="font-weight: bold; text-decoration: none;"> </del></div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Grundsätzlich besteht die Struktur eines klassischen Convolutional Neural Networks aus einem oder mehreren Convolutional Layer, gefolgt von einem Pooling Layer.</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Diese Einheit kann sich prinzipiell beliebig oft wiederholen, bei ausreichend Wiederholungen spricht man dann von Deep Convolutional Neural Networks, die in den Bereich [[Deep Learning]] fallen.<del style="font-weight: bold; text-decoration: none;"> </del></div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Diese Einheit kann sich prinzipiell beliebig oft wiederholen, bei ausreichend Wiederholungen spricht man dann von Deep Convolutional Neural Networks, die in den Bereich [[Deep Learning]] fallen.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Hierbei ist auf die Ähnlichkeit zum [[Optimalfilter]] hinzuweisen<ref>Convolutional Neural Networks Demystified: A Matched Filtering Perspective Based Tutorial https://arxiv.org/abs/2108.11663v3</ref>.</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Hierbei ist auf die Ähnlichkeit zum [[Optimalfilter]] hinzuweisen<ref>Convolutional Neural Networks Demystified: A Matched Filtering Perspective Based Tutorial https://arxiv.org/abs/2108.11663v3</ref>.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Architektonisch können im Vergleich zum mehrlagigen Perzeptron ([[Multi-Layer-Perzeptron]]) drei wesentliche Unterschiede festgehalten werden (Details hierzu siehe ''Convolutional Layer''):</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Architektonisch können im Vergleich zum mehrlagigen Perzeptron ([[Multi-Layer-Perzeptron]]) drei wesentliche Unterschiede festgehalten werden (Details hierzu siehe ''Convolutional Layer''):</div></td>
</tr>
<tr>
<td colspan="2" class="diff-lineno">Zeile 114:</td>
<td colspan="2" class="diff-lineno">Zeile 114:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Da CNNs eine Sonderform von mehrlagigen [[Perzeptron]]s darstellen,<ref name="LeCun" /> sind sie prinzipiell identisch in ihrer Ausdrucksstärke.</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Da CNNs eine Sonderform von mehrlagigen [[Perzeptron]]s darstellen,<ref name="LeCun" /> sind sie prinzipiell identisch in ihrer Ausdrucksstärke.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Der Erfolg von CNNs lässt sich mit ihrer kompakten Repräsentation der zu lernenden Gewichte (<del style="font-weight: bold; text-decoration: none;">"shared</del> <del style="font-weight: bold; text-decoration: none;">weights"</del>) erklären. Grundlage ist die Annahme, dass ein potentiell interessantes Feature (In Objekterkennung etwa Kanten) an jeder Stelle des Inputsignals (des Bildes) interessant ist. Während ein klassisches zweilagiges Perzeptron mit jeweils 1000 Neuronen pro Ebene für die Verarbeitung von einem Bild im Format 32 × 32 insgesamt mehr als 2 Millionen Gewichte benötigt, verlangt ein CNN mit zwei sich wiederholenden Einheiten, bestehend aus insgesamt 13.000 Neuronen, nur 160.000 (geteilte) zu lernende Gewichte, wovon der Großteil im hinteren Bereich (fully-connected Layer) liegt.</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Der Erfolg von CNNs lässt sich mit ihrer kompakten Repräsentation der zu lernenden Gewichte (<ins style="font-weight: bold; text-decoration: none;">„shared</ins> <ins style="font-weight: bold; text-decoration: none;">weights“</ins>) erklären. Grundlage ist die Annahme, dass ein potentiell interessantes Feature (In Objekterkennung etwa Kanten) an jeder Stelle des Inputsignals (des Bildes) interessant ist. Während ein klassisches zweilagiges Perzeptron mit jeweils 1000 Neuronen pro Ebene für die Verarbeitung von einem Bild im Format 32 × 32 insgesamt mehr als 2 Millionen Gewichte benötigt, verlangt ein CNN mit zwei sich wiederholenden Einheiten, bestehend aus insgesamt 13.000 Neuronen, nur 160.000 (geteilte) zu lernende Gewichte, wovon der Großteil im hinteren Bereich (fully-connected Layer) liegt.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Neben dem wesentlich verringerten Arbeitsspeicherbedarf, haben sich geteilte Gewichte als robust gegenüber [[Translationsinvarianz|Translations-]], Rotations-, [[Skaleninvarianz|Skalen-]] und Luminanzvarianz erwiesen.<ref name="LeCun" /></div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Neben dem wesentlich verringerten Arbeitsspeicherbedarf, haben sich geteilte Gewichte als robust gegenüber [[Translationsinvarianz|Translations-]], Rotations-, [[Skaleninvarianz|Skalen-]] und Luminanzvarianz erwiesen.<ref name="LeCun" /></div></td>
</tr>
</table>
Aka
https://de.wikipedia.org/w/index.php?title=Convolutional_Neural_Network&diff=243032687&oldid=prev
Biggerj1: /* Probleme */
2024-03-11T22:49:31Z
<p><span class="autocomment">Probleme</span></p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 12. März 2024, 00:49 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 132:</td>
<td colspan="2" class="diff-lineno">Zeile 132:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Probleme ==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Probleme ==</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Neuronale Feedforward Netze können jede [[stetige Funktion]] der Form <math>f: X \in \R^n \to Y \in \R^m</math> annähern. Es gibt jedoch keine Garantie dafür, dass das Training dies auch ermöglicht. Wird während dem Training keine Regularisierung verwendet, wird ein neuronales Netz [[Überanpassung|überangepasst]] auf das Rauschen in den Trainingsdaten. Durch die Verringerung der Modellkapazität durch Wiederverwendung der Gewichte mithilfe einer [[Faltung (Mathematik)|Faltung]] (als eine bestimmte Art der Regularisierung) kann man die Tendenz zur Überanpassung verringert werden.</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Neuronale Feedforward Netze können jede [[stetige Funktion]] der Form <math>f: X \in \R^n \to Y \in \R^m</math> annähern<ins style="font-weight: bold; text-decoration: none;">, dies wird durch das [[universelle Approximationstheorem]] garantiert</ins>. Es gibt jedoch keine Garantie dafür, dass das Training dies auch ermöglicht. Wird während dem Training keine Regularisierung verwendet, wird ein neuronales Netz [[Überanpassung|überangepasst]] auf das Rauschen in den Trainingsdaten. Durch die Verringerung der Modellkapazität durch Wiederverwendung der Gewichte mithilfe einer [[Faltung (Mathematik)|Faltung]] (als eine bestimmte Art der Regularisierung) kann man die Tendenz zur Überanpassung verringert werden.</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Formal bedeutet dies, dass die Merkmale <math>X \to X'</math> transformiert werden, so dass, wenn <math>H(X)</math> die [[Entropie (Informationstheorie)|Entropie]] von <math>X</math> ist, dann gilt <math>H(X) \leq H(X')</math>. Dadurch kann das neuronale Netz eine neue Zielfunktion <math>g: f(X) \to g(X')</math> lernen, die weniger anfällig für Überanpassung ist. Dies wird dadurch ermöglicht, dass eine wichtige Voraussetzung, die [[lineare Unabhängigkeit]] der Merkmale, für einige Datenklassen systematisch verletzt wird.<ref>baeldung.com: [https://www.baeldung.com/cs/ai-convolutional-neural-networks ''Introduction to Convolutional Neural Networks'']</ref></div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Formal bedeutet dies, dass die Merkmale <math>X \to X'</math> transformiert werden, so dass, wenn <math>H(X)</math> die [[Entropie (Informationstheorie)|Entropie]] von <math>X</math> ist, dann gilt <math>H(X) \leq H(X')</math>. Dadurch kann das neuronale Netz eine neue Zielfunktion <math>g: f(X) \to g(X')</math> lernen, die weniger anfällig für Überanpassung ist. Dies wird dadurch ermöglicht, dass eine wichtige Voraussetzung, die [[lineare Unabhängigkeit]] der Merkmale, für einige Datenklassen systematisch verletzt wird.<ref>baeldung.com: [https://www.baeldung.com/cs/ai-convolutional-neural-networks ''Introduction to Convolutional Neural Networks'']</ref></div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
</table>
Biggerj1
https://de.wikipedia.org/w/index.php?title=Convolutional_Neural_Network&diff=243032626&oldid=prev
Biggerj1: /* Probleme */ Beginn etwas umformuliert
2024-03-11T22:46:24Z
<p><span class="autocomment">Probleme: </span> Beginn etwas umformuliert</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 12. März 2024, 00:46 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 132:</td>
<td colspan="2" class="diff-lineno">Zeile 132:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Probleme ==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Probleme ==</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Neuronale Feedforward Netze können jede [[stetige Funktion]] der Form <math>f: X \in \R^n \to Y \in \R^m</math> annähern. Es gibt jedoch keine Garantie dafür, dass das <del style="font-weight: bold; text-decoration: none;">korrekt</del> <del style="font-weight: bold; text-decoration: none;">funktioniert</del>. <del style="font-weight: bold; text-decoration: none;">Normalerweise</del> wird ein neuronales Netz <del style="font-weight: bold; text-decoration: none;">vom</del> Rauschen <del style="font-weight: bold; text-decoration: none;">seiner</del> Trainingsdaten<del style="font-weight: bold; text-decoration: none;"> übertroffen</del>. <del style="font-weight: bold; text-decoration: none;">Mit</del> <del style="font-weight: bold; text-decoration: none;">einer</del> <del style="font-weight: bold; text-decoration: none;">sogenannten</del> [[Faltung (Mathematik)|Faltung]]<del style="font-weight: bold; text-decoration: none;">,</del> <del style="font-weight: bold; text-decoration: none;">einer</del> <del style="font-weight: bold; text-decoration: none;">bestimmten</del> Art der Regularisierung<del style="font-weight: bold; text-decoration: none;">,</del> kann man <del style="font-weight: bold; text-decoration: none;">das</del> <del style="font-weight: bold; text-decoration: none;">Rauschen</del> <del style="font-weight: bold; text-decoration: none;">verringern.</del> Formal bedeutet dies, dass die Merkmale <math>X \to X'</math> transformiert werden, so dass, wenn <math>H(X)</math> die [[Entropie (Informationstheorie)|Entropie]] von <math>X</math> ist, dann gilt <math>H(X) \leq H(X')</math>. Dadurch kann das neuronale Netz eine neue Zielfunktion <math>g: f(X) \to g(X')</math> lernen, die weniger anfällig für Überanpassung ist. Dies wird dadurch ermöglicht, dass eine wichtige Voraussetzung, die [[lineare Unabhängigkeit]] der Merkmale, für einige Datenklassen systematisch verletzt wird.<ref>baeldung.com: [https://www.baeldung.com/cs/ai-convolutional-neural-networks ''Introduction to Convolutional Neural Networks'']</ref></div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Neuronale Feedforward Netze können jede [[stetige Funktion]] der Form <math>f: X \in \R^n \to Y \in \R^m</math> annähern. Es gibt jedoch keine Garantie dafür, dass das <ins style="font-weight: bold; text-decoration: none;">Training</ins> <ins style="font-weight: bold; text-decoration: none;">dies auch ermöglicht</ins>. <ins style="font-weight: bold; text-decoration: none;">Wird während dem Training keine Regularisierung verwendet,</ins> wird ein neuronales Netz <ins style="font-weight: bold; text-decoration: none;">[[Überanpassung|überangepasst]] auf das</ins> Rauschen <ins style="font-weight: bold; text-decoration: none;">in den</ins> Trainingsdaten. <ins style="font-weight: bold; text-decoration: none;">Durch</ins> <ins style="font-weight: bold; text-decoration: none;">die</ins> <ins style="font-weight: bold; text-decoration: none;">Verringerung der Modellkapazität durch Wiederverwendung der Gewichte mithilfe einer</ins> [[Faltung (Mathematik)|Faltung]] <ins style="font-weight: bold; text-decoration: none;">(als eine</ins> <ins style="font-weight: bold; text-decoration: none;">bestimmte</ins> Art der Regularisierung<ins style="font-weight: bold; text-decoration: none;">)</ins> kann man <ins style="font-weight: bold; text-decoration: none;">die</ins> <ins style="font-weight: bold; text-decoration: none;">Tendenz</ins> <ins style="font-weight: bold; text-decoration: none;">zur</ins> <ins style="font-weight: bold; text-decoration: none;">Überanpassung verringert werden.</ins></div></td>
</tr>
<tr>
<td colspan="2" class="diff-empty diff-side-deleted"></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Formal bedeutet dies, dass die Merkmale <math>X \to X'</math> transformiert werden, so dass, wenn <math>H(X)</math> die [[Entropie (Informationstheorie)|Entropie]] von <math>X</math> ist, dann gilt <math>H(X) \leq H(X')</math>. Dadurch kann das neuronale Netz eine neue Zielfunktion <math>g: f(X) \to g(X')</math> lernen, die weniger anfällig für Überanpassung ist. Dies wird dadurch ermöglicht, dass eine wichtige Voraussetzung, die [[lineare Unabhängigkeit]] der Merkmale, für einige Datenklassen systematisch verletzt wird.<ref>baeldung.com: [https://www.baeldung.com/cs/ai-convolutional-neural-networks ''Introduction to Convolutional Neural Networks'']</ref></div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Anwendung ==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Anwendung ==</div></td>
</tr>
</table>
Biggerj1
https://de.wikipedia.org/w/index.php?title=Convolutional_Neural_Network&diff=243030451&oldid=prev
Maximum 2520: /* Probleme */ Korrektur
2024-03-11T21:12:56Z
<p><span class="autocomment">Probleme: </span> Korrektur</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 11. März 2024, 23:12 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 132:</td>
<td colspan="2" class="diff-lineno">Zeile 132:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Probleme ==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Probleme ==</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Neuronale Feedforward Netze können jede [[stetige Funktion]] der Form <math>f: X \in \R^n \to Y \in \R^m</math> annähern. Es gibt jedoch keine Garantie dafür, dass das korrekt funktioniert. Normalerweise wird ein neuronales Netz vom Rauschen seiner Trainingsdaten übertroffen. <del style="font-weight: bold; text-decoration: none;">mit</del> einer <del style="font-weight: bold; text-decoration: none;">sogannten</del> [[Faltung (Mathematik)|Faltung]], <del style="font-weight: bold; text-decoration: none;">eine</del> <del style="font-weight: bold; text-decoration: none;">bestimmte</del> Art der Regularisierung, kann man das Rauschen verringern. Formal bedeutet dies, dass die Merkmale <math>X \to X'</math> transformiert werden, so dass, wenn <math>H(X)</math> die [[Entropie (Informationstheorie)|Entropie]] von <math>X</math> ist, dann gilt <math>H(X) \leq H(X')</math>. Dadurch kann das neuronale Netz eine neue Zielfunktion <math>g: f(X) \to g(X')</math> lernen, die weniger anfällig für Überanpassung ist. Dies wird dadurch ermöglicht, dass eine wichtige Voraussetzung, die [[lineare Unabhängigkeit]] der Merkmale, für einige Datenklassen systematisch verletzt wird.<ref>baeldung.com: [https://www.baeldung.com/cs/ai-convolutional-neural-networks ''Introduction to Convolutional Neural Networks'']</ref></div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Neuronale Feedforward Netze können jede [[stetige Funktion]] der Form <math>f: X \in \R^n \to Y \in \R^m</math> annähern. Es gibt jedoch keine Garantie dafür, dass das korrekt funktioniert. Normalerweise wird ein neuronales Netz vom Rauschen seiner Trainingsdaten übertroffen. <ins style="font-weight: bold; text-decoration: none;">Mit</ins> einer <ins style="font-weight: bold; text-decoration: none;">sogenannten</ins> [[Faltung (Mathematik)|Faltung]], <ins style="font-weight: bold; text-decoration: none;">einer</ins> <ins style="font-weight: bold; text-decoration: none;">bestimmten</ins> Art der Regularisierung, kann man das Rauschen verringern. Formal bedeutet dies, dass die Merkmale <math>X \to X'</math> transformiert werden, so dass, wenn <math>H(X)</math> die [[Entropie (Informationstheorie)|Entropie]] von <math>X</math> ist, dann gilt <math>H(X) \leq H(X')</math>. Dadurch kann das neuronale Netz eine neue Zielfunktion <math>g: f(X) \to g(X')</math> lernen, die weniger anfällig für Überanpassung ist. Dies wird dadurch ermöglicht, dass eine wichtige Voraussetzung, die [[lineare Unabhängigkeit]] der Merkmale, für einige Datenklassen systematisch verletzt wird.<ref>baeldung.com: [https://www.baeldung.com/cs/ai-convolutional-neural-networks ''Introduction to Convolutional Neural Networks'']</ref></div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Anwendung ==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Anwendung ==</div></td>
</tr>
</table>
Maximum 2520
https://de.wikipedia.org/w/index.php?title=Convolutional_Neural_Network&diff=243030394&oldid=prev
Maximum 2520: /* Probleme */ Formulierungen geändert
2024-03-11T21:10:30Z
<p><span class="autocomment">Probleme: </span> Formulierungen geändert</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 11. März 2024, 23:10 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 132:</td>
<td colspan="2" class="diff-lineno">Zeile 132:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Probleme ==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Probleme ==</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Neuronale Feedforward Netze können jede [[stetige Funktion]] der Form <math>f: X \in \R^n \to Y \in \R^m</math> annähern. Es gibt jedoch keine Garantie dafür, dass <del style="font-weight: bold; text-decoration: none;">neuronale</del> <del style="font-weight: bold; text-decoration: none;">Netze diese Funktion lernen</del> <del style="font-weight: bold; text-decoration: none;">können</del>. <del style="font-weight: bold; text-decoration: none;">In der Regel</del> wird ein neuronales Netz <del style="font-weight: bold; text-decoration: none;">über das</del> Rauschen seiner Trainingsdaten übertroffen <del style="font-weight: bold; text-decoration: none;">und</del> <del style="font-weight: bold; text-decoration: none;">erlernt</del> <del style="font-weight: bold; text-decoration: none;">niemals eine bestimmte objektive Funktion.</del> [[Faltung (Mathematik)|Faltung]]<del style="font-weight: bold; text-decoration: none;"> ist</del> eine bestimmte Art der Regularisierung,<del style="font-weight: bold; text-decoration: none;"> die die lineare Abhängigkeit von Merkmalen oder Beobachtungen ausnutzt. Damit</del> kann man das Rauschen verringern<del style="font-weight: bold; text-decoration: none;"> und die Konsistenz mit der vorherigen Annahme der [[Lineare Unabhängigkeit|linearen Unabhängigkeit]] der Funktionen wiederherstellen</del>. Formal bedeutet dies, dass die Merkmale <math>X \to X'</math> transformiert werden, so dass, wenn <math>H(X)</math> die Entropie von <math>X</math> ist, dann gilt <math>H(X) \leq H(X')</math>. Dadurch kann das Netz eine neue Zielfunktion <math>g: f(X) \to g(X')</math> lernen, die weniger anfällig für Überanpassung ist<del style="font-weight: bold; text-decoration: none;">. Die Faltung führt diese Aufgabe im Wesentlichen durch, indem hochentropische Merkmale in Beobachtungen durch eine komplexere Version von ihnen ersetzt werden</del>. Dies wird <del style="font-weight: bold; text-decoration: none;">durch die Tatsache</del> ermöglicht, dass eine wichtige Voraussetzung<del style="font-weight: bold; text-decoration: none;"> für die Verwendung neuronaler Netze</del>, die lineare Unabhängigkeit der Merkmale, für einige Datenklassen systematisch verletzt wird<del style="font-weight: bold; text-decoration: none;">. Wenn zwischen den beiden Variablen <math>X</math> und <math>Y</math> eine lineare Beziehung bestand, so dass eine von der anderen mit einer Funktion der Form <math>y = f(x)</math> angenähert werden kann. Wenn diese Funktion zum Beispiel die Form <math>Y = 2 \cdot X + 1</math> haben, sind diese beiden Variablen [[linear abhängig]]</del>.<ref>baeldung.com: [https://www.baeldung.com/cs/ai-convolutional-neural-networks ''Introduction to Convolutional Neural Networks'']</ref></div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Neuronale Feedforward Netze können jede [[stetige Funktion]] der Form <math>f: X \in \R^n \to Y \in \R^m</math> annähern. Es gibt jedoch keine Garantie dafür, dass <ins style="font-weight: bold; text-decoration: none;">das</ins> <ins style="font-weight: bold; text-decoration: none;">korrekt</ins> <ins style="font-weight: bold; text-decoration: none;">funktioniert</ins>. <ins style="font-weight: bold; text-decoration: none;">Normalerweise</ins> wird ein neuronales Netz <ins style="font-weight: bold; text-decoration: none;">vom</ins> Rauschen seiner Trainingsdaten übertroffen<ins style="font-weight: bold; text-decoration: none;">.</ins> <ins style="font-weight: bold; text-decoration: none;">mit</ins> <ins style="font-weight: bold; text-decoration: none;">einer</ins> <ins style="font-weight: bold; text-decoration: none;">sogannten</ins> [[Faltung (Mathematik)|Faltung]]<ins style="font-weight: bold; text-decoration: none;">,</ins> eine bestimmte Art der Regularisierung, kann man das Rauschen verringern. Formal bedeutet dies, dass die Merkmale <math>X \to X'</math> transformiert werden, so dass, wenn <math>H(X)</math> die <ins style="font-weight: bold; text-decoration: none;">[[</ins>Entropie<ins style="font-weight: bold; text-decoration: none;"> (Informationstheorie)|Entropie]]</ins> von <math>X</math> ist, dann gilt <math>H(X) \leq H(X')</math>. Dadurch kann das<ins style="font-weight: bold; text-decoration: none;"> neuronale</ins> Netz eine neue Zielfunktion <math>g: f(X) \to g(X')</math> lernen, die weniger anfällig für Überanpassung ist. Dies wird <ins style="font-weight: bold; text-decoration: none;">dadurch</ins> ermöglicht, dass eine wichtige Voraussetzung, die <ins style="font-weight: bold; text-decoration: none;">[[</ins>lineare Unabhängigkeit<ins style="font-weight: bold; text-decoration: none;">]]</ins> der Merkmale, für einige Datenklassen systematisch verletzt wird.<ref>baeldung.com: [https://www.baeldung.com/cs/ai-convolutional-neural-networks ''Introduction to Convolutional Neural Networks'']</ref></div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Anwendung ==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Anwendung ==</div></td>
</tr>
</table>
Maximum 2520
https://de.wikipedia.org/w/index.php?title=Convolutional_Neural_Network&diff=242939069&oldid=prev
Maximum 2520: /* Probleme */ hinzugefügt
2024-03-08T22:18:37Z
<p><span class="autocomment">Probleme: </span> hinzugefügt</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 9. März 2024, 00:18 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 130:</td>
<td colspan="2" class="diff-lineno">Zeile 130:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Somit treten die Analogien zwischen Neuronen in CNNs und biologischen Neuronen primär behavioristisch zutage, also im Vergleich zweier funktionsfähiger Systeme, wohingegen die Entwicklung eines „unwissenden“ Neurons zu einem (beispielsweise) gesichtserkennenden Neuron in beiden Systemen diametralen Prinzipien folgt.</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Somit treten die Analogien zwischen Neuronen in CNNs und biologischen Neuronen primär behavioristisch zutage, also im Vergleich zweier funktionsfähiger Systeme, wohingegen die Entwicklung eines „unwissenden“ Neurons zu einem (beispielsweise) gesichtserkennenden Neuron in beiden Systemen diametralen Prinzipien folgt.</div></td>
</tr>
<tr>
<td colspan="2" class="diff-empty diff-side-deleted"></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td colspan="2" class="diff-empty diff-side-deleted"></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>== Probleme ==</div></td>
</tr>
<tr>
<td colspan="2" class="diff-empty diff-side-deleted"></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Neuronale Feedforward Netze können jede [[stetige Funktion]] der Form <math>f: X \in \R^n \to Y \in \R^m</math> annähern. Es gibt jedoch keine Garantie dafür, dass neuronale Netze diese Funktion lernen können. In der Regel wird ein neuronales Netz über das Rauschen seiner Trainingsdaten übertroffen und erlernt niemals eine bestimmte objektive Funktion. [[Faltung (Mathematik)|Faltung]] ist eine bestimmte Art der Regularisierung, die die lineare Abhängigkeit von Merkmalen oder Beobachtungen ausnutzt. Damit kann man das Rauschen verringern und die Konsistenz mit der vorherigen Annahme der [[Lineare Unabhängigkeit|linearen Unabhängigkeit]] der Funktionen wiederherstellen. Formal bedeutet dies, dass die Merkmale <math>X \to X'</math> transformiert werden, so dass, wenn <math>H(X)</math> die Entropie von <math>X</math> ist, dann gilt <math>H(X) \leq H(X')</math>. Dadurch kann das Netz eine neue Zielfunktion <math>g: f(X) \to g(X')</math> lernen, die weniger anfällig für Überanpassung ist. Die Faltung führt diese Aufgabe im Wesentlichen durch, indem hochentropische Merkmale in Beobachtungen durch eine komplexere Version von ihnen ersetzt werden. Dies wird durch die Tatsache ermöglicht, dass eine wichtige Voraussetzung für die Verwendung neuronaler Netze, die lineare Unabhängigkeit der Merkmale, für einige Datenklassen systematisch verletzt wird. Wenn zwischen den beiden Variablen <math>X</math> und <math>Y</math> eine lineare Beziehung bestand, so dass eine von der anderen mit einer Funktion der Form <math>y = f(x)</math> angenähert werden kann. Wenn diese Funktion zum Beispiel die Form <math>Y = 2 \cdot X + 1</math> haben, sind diese beiden Variablen [[linear abhängig]].<ref>baeldung.com: [https://www.baeldung.com/cs/ai-convolutional-neural-networks ''Introduction to Convolutional Neural Networks'']</ref></div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Anwendung ==</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Anwendung ==</div></td>
</tr>
</table>
Maximum 2520
https://de.wikipedia.org/w/index.php?title=Convolutional_Neural_Network&diff=242935820&oldid=prev
Biggerj1: /* Stochastic Pooling */Fix, könnte besser formuliert werden
2024-03-08T19:46:38Z
<p><span class="autocomment">Stochastic Pooling: </span>Fix, könnte besser formuliert werden</p>
<table style="background-color: #fff; color: #202122;" data-mw="interface">
<col class="diff-marker" />
<col class="diff-content" />
<col class="diff-marker" />
<col class="diff-content" />
<tr class="diff-title" lang="de">
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td>
<td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 8. März 2024, 21:46 Uhr</td>
</tr><tr>
<td colspan="2" class="diff-lineno">Zeile 77:</td>
<td colspan="2" class="diff-lineno">Zeile 77:</td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>==== Stochastic Pooling ====</div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>==== Stochastic Pooling ====</div></td>
</tr>
<tr>
<td class="diff-marker" data-marker="−"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Stochastic Pooling ist eine deterministische Pooling-Operation, die zufällige Werte mit Max Pooling kombiniert. Diese Technik trägt dazu bei, die Robustheit des Modells gegenüber kleinen Abweichungen in den Eingabedaten zu verbessern. Die mathematische Formel für Stochastic Pooling lautet:</div></td>
<td class="diff-marker" data-marker="+"></td>
<td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Stochastic Pooling ist eine <ins style="font-weight: bold; text-decoration: none;">nicht-</ins>deterministische Pooling-Operation, die zufällige Werte mit Max Pooling kombiniert. Diese Technik trägt dazu bei, die Robustheit des Modells gegenüber kleinen Abweichungen in den Eingabedaten zu verbessern. Die mathematische Formel für Stochastic Pooling lautet:</div></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td>
</tr>
<tr>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>:<math> \mathrm{StochasticPooling}(x)_{i,j,k} = \begin{cases} \begin{align} X_{i,j,k} & \ \mathrm{mit Wahrscheinlichkeit} \ p_{i,k} \\ 0 & \ \mathrm{mit Wahrscheinlichkeit} \ 1 - p_{i,k} \\ \end{align} \end{cases} </math></div></td>
<td class="diff-marker"></td>
<td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>:<math> \mathrm{StochasticPooling}(x)_{i,j,k} = \begin{cases} \begin{align} X_{i,j,k} & \ \mathrm{mit Wahrscheinlichkeit} \ p_{i,k} \\ 0 & \ \mathrm{mit Wahrscheinlichkeit} \ 1 - p_{i,k} \\ \end{align} \end{cases} </math></div></td>
</tr>
</table>
Biggerj1