https://de.wikipedia.org/w/index.php?action=history&feed=atom&title=Scale-invariant_feature_transform Scale-invariant feature transform - Versionsgeschichte 2025-04-23T17:38:08Z Versionsgeschichte dieser Seite in Wikipedia MediaWiki 1.44.0-wmf.25 https://de.wikipedia.org/w/index.php?title=Scale-invariant_feature_transform&diff=229251985&oldid=prev Coronium: Nutze Vorlage Patent 2022-12-28T07:01:25Z <p>Nutze Vorlage Patent</p> <table style="background-color: #fff; color: #202122;" data-mw="interface"> <col class="diff-marker" /> <col class="diff-content" /> <col class="diff-marker" /> <col class="diff-content" /> <tr class="diff-title" lang="de"> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 28. Dezember 2022, 09:01 Uhr</td> </tr><tr> <td colspan="2" class="diff-lineno">Zeile 1:</td> <td colspan="2" class="diff-lineno">Zeile 1:</td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Scale-invariant feature transform''' ([[Englische Sprache|engl.]], „''skaleninvariante Merkmalstransformation''“, kurz '''SIFT''') ist ein [[Algorithmus]] zur Detektion und Beschreibung lokaler [[Interest-Operator|Merkmale]] in Bildern. Der Detektor und die Merkmalsbeschreibungen sind, in gewissen Grenzen, invariant gegenüber [[Koordinatentransformation]]en wie Translation, Rotation und Skalierung. Sie sind außerdem robust gegen Beleuchtungsvariation, Bildrauschen und geringere geometrische Deformation höherer Ordnung, wie sie zum Beispiel durch projektive Abbildung eines Objekts von verschiedenen Standpunkten im Raum entstehen. Ursprünglich für die [[Objekterkennung]] entwickelt, kommt der Algorithmus mittlerweile in weiteren Gebieten der [[Bildverarbeitung]] zum Einsatz. Darunter z.&amp;nbsp;B. die [[Bildregistrierung]] bzw. das Erstellen von Panoramabildern aus Einzelaufnahmen ([[Stitching]]), Objektverfolgung in Videos, [[Simultaneous Localization and Mapping|Navigation]] von Robotern oder [[Gestenerkennung]]. </div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Scale-invariant feature transform''' ([[Englische Sprache|engl.]], „''skaleninvariante Merkmalstransformation''“, kurz '''SIFT''') ist ein [[Algorithmus]] zur Detektion und Beschreibung lokaler [[Interest-Operator|Merkmale]] in Bildern. Der Detektor und die Merkmalsbeschreibungen sind, in gewissen Grenzen, invariant gegenüber [[Koordinatentransformation]]en wie Translation, Rotation und Skalierung. Sie sind außerdem robust gegen Beleuchtungsvariation, Bildrauschen und geringere geometrische Deformation höherer Ordnung, wie sie zum Beispiel durch projektive Abbildung eines Objekts von verschiedenen Standpunkten im Raum entstehen. Ursprünglich für die [[Objekterkennung]] entwickelt, kommt der Algorithmus mittlerweile in weiteren Gebieten der [[Bildverarbeitung]] zum Einsatz. Darunter z.&amp;nbsp;B. die [[Bildregistrierung]] bzw. das Erstellen von Panoramabildern aus Einzelaufnahmen ([[Stitching]]), Objektverfolgung in Videos, [[Simultaneous Localization and Mapping|Navigation]] von Robotern oder [[Gestenerkennung]]. </div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Der Algorithmus wurde im Jahre 1999 von [[David Lowe (Informatiker)|David G. Lowe]] veröffentlicht und gilt als Referenzverfahren in seinem Einsatzgebiet. Die [[University of British Columbia]] hatte an dem Algorithmus ein US-[[Patent]] inne.&lt;ref&gt;<del style="font-weight: bold; text-decoration: none;">[http://www.google.com/patents/US6711293</del> US 6711293 B1<del style="font-weight: bold; text-decoration: none;">:</del> Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image<del style="font-weight: bold; text-decoration: none;">]</del> <del style="font-weight: bold; text-decoration: none;">(engl</del>.<del style="font-weight: bold; text-decoration: none;">)</del>&lt;/ref&gt; Die grundlegenden Konzepte von SIFT finden sich in verschiedenen Weiterentwicklungen anderer Autoren wieder. Dabei konnte der Berechnungsaufwand reduziert und die Robustheit von Detektor und Merkmalsbeschreibungen verbessert werden (z.&amp;nbsp;B. [[SURF]], Affine-SIFT, PCA-SIFT).</div></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Der Algorithmus wurde im Jahre 1999 von [[David Lowe (Informatiker)|David G. Lowe]] veröffentlicht und gilt als Referenzverfahren in seinem Einsatzgebiet. Die [[University of British Columbia]] hatte an dem Algorithmus ein US-[[Patent]] inne.&lt;ref&gt;<ins style="font-weight: bold; text-decoration: none;">{{Patent|</ins> <ins style="font-weight: bold; text-decoration: none;">Land=</ins>US<ins style="font-weight: bold; text-decoration: none;">|</ins> <ins style="font-weight: bold; text-decoration: none;">V-Nr=</ins>6711293<ins style="font-weight: bold; text-decoration: none;">|</ins> <ins style="font-weight: bold; text-decoration: none;">Code=</ins>B1<ins style="font-weight: bold; text-decoration: none;">|</ins> <ins style="font-weight: bold; text-decoration: none;">Titel=</ins>Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image<ins style="font-weight: bold; text-decoration: none;">|</ins> <ins style="font-weight: bold; text-decoration: none;">A-Datum=2000-03-06| V-Datum=2004-03-23| Anmelder=The University of British Columbia| Erfinder=David G</ins>.<ins style="font-weight: bold; text-decoration: none;"> Lowe}}</ins>&lt;/ref&gt; Die grundlegenden Konzepte von SIFT finden sich in verschiedenen Weiterentwicklungen anderer Autoren wieder. Dabei konnte der Berechnungsaufwand reduziert und die Robustheit von Detektor und Merkmalsbeschreibungen verbessert werden (z.&amp;nbsp;B. [[SURF]], Affine-SIFT, PCA-SIFT).</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Literatur ==</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Literatur ==</div></td> </tr> </table> Coronium https://de.wikipedia.org/w/index.php?title=Scale-invariant_feature_transform&diff=200139971&oldid=prev 176.198.54.190 am 20. Mai 2020 um 12:24 Uhr 2020-05-20T12:24:14Z <p></p> <table style="background-color: #fff; color: #202122;" data-mw="interface"> <col class="diff-marker" /> <col class="diff-content" /> <col class="diff-marker" /> <col class="diff-content" /> <tr class="diff-title" lang="de"> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 20. Mai 2020, 14:24 Uhr</td> </tr><tr> <td colspan="2" class="diff-lineno">Zeile 1:</td> <td colspan="2" class="diff-lineno">Zeile 1:</td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Scale-invariant feature transform''' ([[Englische Sprache|engl.]], „''skaleninvariante Merkmalstransformation''“, kurz '''SIFT''') ist ein [[Algorithmus]] zur Detektion und Beschreibung lokaler [[Interest-Operator|Merkmale]] in Bildern. Der Detektor und die Merkmalsbeschreibungen sind, in gewissen Grenzen, invariant gegenüber [[Koordinatentransformation]]en wie Translation, Rotation und Skalierung. Sie sind außerdem robust gegen Beleuchtungsvariation, Bildrauschen und geringere geometrische Deformation höherer Ordnung, wie sie zum Beispiel durch projektive Abbildung eines Objekts von verschiedenen Standpunkten im Raum entstehen. Ursprünglich für die [[Objekterkennung]] entwickelt, kommt der Algorithmus mittlerweile in weiteren Gebieten der [[Bildverarbeitung]] zum Einsatz. Darunter z.&amp;nbsp;B. die [[Bildregistrierung]] bzw. das Erstellen von Panoramabildern aus Einzelaufnahmen ([[Stitching]]), Objektverfolgung in Videos, [[Simultaneous Localization and Mapping|Navigation]] von Robotern oder [[Gestenerkennung]]. </div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Scale-invariant feature transform''' ([[Englische Sprache|engl.]], „''skaleninvariante Merkmalstransformation''“, kurz '''SIFT''') ist ein [[Algorithmus]] zur Detektion und Beschreibung lokaler [[Interest-Operator|Merkmale]] in Bildern. Der Detektor und die Merkmalsbeschreibungen sind, in gewissen Grenzen, invariant gegenüber [[Koordinatentransformation]]en wie Translation, Rotation und Skalierung. Sie sind außerdem robust gegen Beleuchtungsvariation, Bildrauschen und geringere geometrische Deformation höherer Ordnung, wie sie zum Beispiel durch projektive Abbildung eines Objekts von verschiedenen Standpunkten im Raum entstehen. Ursprünglich für die [[Objekterkennung]] entwickelt, kommt der Algorithmus mittlerweile in weiteren Gebieten der [[Bildverarbeitung]] zum Einsatz. Darunter z.&amp;nbsp;B. die [[Bildregistrierung]] bzw. das Erstellen von Panoramabildern aus Einzelaufnahmen ([[Stitching]]), Objektverfolgung in Videos, [[Simultaneous Localization and Mapping|Navigation]] von Robotern oder [[Gestenerkennung]]. </div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Der Algorithmus wurde im Jahre 1999 von [[David Lowe (Informatiker)|David G. Lowe]] veröffentlicht und gilt als Referenzverfahren in seinem Einsatzgebiet. <del style="font-weight: bold; text-decoration: none;">Allerdings hat die</del> [[University of British Columbia]] an dem Algorithmus ein US-[[Patent]] inne.&lt;ref&gt;[http://www.google.com/patents/US6711293 US 6711293 B1: Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image] (engl.)&lt;/ref&gt; Die grundlegenden Konzepte von SIFT finden sich<del style="font-weight: bold; text-decoration: none;"> jedoch</del> in verschiedenen Weiterentwicklungen anderer Autoren wieder. Dabei konnte der Berechnungsaufwand reduziert und die Robustheit von Detektor und Merkmalsbeschreibungen verbessert werden (z.&amp;nbsp;B. [[SURF]], Affine-SIFT, PCA-SIFT).</div></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Der Algorithmus wurde im Jahre 1999 von [[David Lowe (Informatiker)|David G. Lowe]] veröffentlicht und gilt als Referenzverfahren in seinem Einsatzgebiet. <ins style="font-weight: bold; text-decoration: none;">Die</ins> [[University of British Columbia]]<ins style="font-weight: bold; text-decoration: none;"> hatte</ins> an dem Algorithmus ein US-[[Patent]] inne.&lt;ref&gt;[http://www.google.com/patents/US6711293 US 6711293 B1: Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image] (engl.)&lt;/ref&gt; Die grundlegenden Konzepte von SIFT finden sich in verschiedenen Weiterentwicklungen anderer Autoren wieder. Dabei konnte der Berechnungsaufwand reduziert und die Robustheit von Detektor und Merkmalsbeschreibungen verbessert werden (z.&amp;nbsp;B. [[SURF]], Affine-SIFT, PCA-SIFT).</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Literatur ==</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Literatur ==</div></td> </tr> </table> 176.198.54.190 https://de.wikipedia.org/w/index.php?title=Scale-invariant_feature_transform&diff=173277801&oldid=prev Aka: Abkürzung korrigiert 2018-01-24T12:49:30Z <p>Abkürzung korrigiert</p> <table style="background-color: #fff; color: #202122;" data-mw="interface"> <col class="diff-marker" /> <col class="diff-content" /> <col class="diff-marker" /> <col class="diff-content" /> <tr class="diff-title" lang="de"> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 24. Januar 2018, 14:49 Uhr</td> </tr><tr> <td colspan="2" class="diff-lineno">Zeile 1:</td> <td colspan="2" class="diff-lineno">Zeile 1:</td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>'''Scale-invariant feature transform''' ([[Englische Sprache|engl.]], „''skaleninvariante Merkmalstransformation''“, kurz '''SIFT''') ist ein [[Algorithmus]] zur Detektion und Beschreibung lokaler [[Interest-Operator|Merkmale]] in Bildern. Der Detektor und die Merkmalsbeschreibungen sind, in gewissen Grenzen, invariant gegenüber [[Koordinatentransformation]]en wie Translation, Rotation und Skalierung. Sie sind außerdem robust gegen Beleuchtungsvariation, Bildrauschen und geringere geometrische Deformation höherer Ordnung, wie sie zum Beispiel durch projektive Abbildung eines Objekts von verschiedenen Standpunkten im Raum entstehen. Ursprünglich für die [[Objekterkennung]] entwickelt, kommt der Algorithmus mittlerweile in weiteren Gebieten der [[Bildverarbeitung]] zum Einsatz. Darunter z.B. die [[Bildregistrierung]] bzw. das Erstellen von Panoramabildern aus Einzelaufnahmen ([[Stitching]]), Objektverfolgung in Videos, [[Simultaneous Localization and Mapping|Navigation]] von Robotern oder [[Gestenerkennung]]. </div></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>'''Scale-invariant feature transform''' ([[Englische Sprache|engl.]], „''skaleninvariante Merkmalstransformation''“, kurz '''SIFT''') ist ein [[Algorithmus]] zur Detektion und Beschreibung lokaler [[Interest-Operator|Merkmale]] in Bildern. Der Detektor und die Merkmalsbeschreibungen sind, in gewissen Grenzen, invariant gegenüber [[Koordinatentransformation]]en wie Translation, Rotation und Skalierung. Sie sind außerdem robust gegen Beleuchtungsvariation, Bildrauschen und geringere geometrische Deformation höherer Ordnung, wie sie zum Beispiel durch projektive Abbildung eines Objekts von verschiedenen Standpunkten im Raum entstehen. Ursprünglich für die [[Objekterkennung]] entwickelt, kommt der Algorithmus mittlerweile in weiteren Gebieten der [[Bildverarbeitung]] zum Einsatz. Darunter z.<ins style="font-weight: bold; text-decoration: none;">&amp;nbsp;</ins>B. die [[Bildregistrierung]] bzw. das Erstellen von Panoramabildern aus Einzelaufnahmen ([[Stitching]]), Objektverfolgung in Videos, [[Simultaneous Localization and Mapping|Navigation]] von Robotern oder [[Gestenerkennung]]. </div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Der Algorithmus wurde im Jahre 1999 von [[David Lowe (Informatiker)|David G. Lowe]] veröffentlicht und gilt als Referenzverfahren in seinem Einsatzgebiet. Allerdings hat die [[University of British Columbia]] an dem Algorithmus ein US-[[Patent]] inne.&lt;ref&gt;[http://www.google.com/patents/US6711293 US 6711293 B1: Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image] (engl.)&lt;/ref&gt; Die grundlegenden Konzepte von SIFT finden sich jedoch in verschiedenen Weiterentwicklungen anderer Autoren wieder. Dabei konnte der Berechnungsaufwand reduziert und die Robustheit von Detektor und Merkmalsbeschreibungen verbessert werden (z.B. [[SURF]], Affine-SIFT, PCA-SIFT).</div></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Der Algorithmus wurde im Jahre 1999 von [[David Lowe (Informatiker)|David G. Lowe]] veröffentlicht und gilt als Referenzverfahren in seinem Einsatzgebiet. Allerdings hat die [[University of British Columbia]] an dem Algorithmus ein US-[[Patent]] inne.&lt;ref&gt;[http://www.google.com/patents/US6711293 US 6711293 B1: Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image] (engl.)&lt;/ref&gt; Die grundlegenden Konzepte von SIFT finden sich jedoch in verschiedenen Weiterentwicklungen anderer Autoren wieder. Dabei konnte der Berechnungsaufwand reduziert und die Robustheit von Detektor und Merkmalsbeschreibungen verbessert werden (z.<ins style="font-weight: bold; text-decoration: none;">&amp;nbsp;</ins>B. [[SURF]], Affine-SIFT, PCA-SIFT).</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Literatur ==</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Literatur ==</div></td> </tr> </table> Aka https://de.wikipedia.org/w/index.php?title=Scale-invariant_feature_transform&diff=171110580&oldid=prev Ureinwohner: lf 2017-11-17T21:15:57Z <p>lf</p> <table style="background-color: #fff; color: #202122;" data-mw="interface"> <col class="diff-marker" /> <col class="diff-content" /> <col class="diff-marker" /> <col class="diff-content" /> <tr class="diff-title" lang="de"> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 17. November 2017, 23:15 Uhr</td> </tr><tr> <td colspan="2" class="diff-lineno">Zeile 1:</td> <td colspan="2" class="diff-lineno">Zeile 1:</td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Scale-invariant feature transform''' ([[Englische Sprache|engl.]], „''skaleninvariante Merkmalstransformation''“, kurz '''SIFT''') ist ein [[Algorithmus]] zur Detektion und Beschreibung lokaler [[Interest-Operator|Merkmale]] in Bildern. Der Detektor und die Merkmalsbeschreibungen sind, in gewissen Grenzen, invariant gegenüber [[Koordinatentransformation]]en wie Translation, Rotation und Skalierung. Sie sind außerdem robust gegen Beleuchtungsvariation, Bildrauschen und geringere geometrische Deformation höherer Ordnung, wie sie zum Beispiel durch projektive Abbildung eines Objekts von verschiedenen Standpunkten im Raum entstehen. Ursprünglich für die [[Objekterkennung]] entwickelt, kommt der Algorithmus mittlerweile in weiteren Gebieten der [[Bildverarbeitung]] zum Einsatz. Darunter z.B. die [[Bildregistrierung]] bzw. das Erstellen von Panoramabildern aus Einzelaufnahmen ([[Stitching]]), Objektverfolgung in Videos, [[Simultaneous Localization and Mapping|Navigation]] von Robotern oder [[Gestenerkennung]]. </div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>'''Scale-invariant feature transform''' ([[Englische Sprache|engl.]], „''skaleninvariante Merkmalstransformation''“, kurz '''SIFT''') ist ein [[Algorithmus]] zur Detektion und Beschreibung lokaler [[Interest-Operator|Merkmale]] in Bildern. Der Detektor und die Merkmalsbeschreibungen sind, in gewissen Grenzen, invariant gegenüber [[Koordinatentransformation]]en wie Translation, Rotation und Skalierung. Sie sind außerdem robust gegen Beleuchtungsvariation, Bildrauschen und geringere geometrische Deformation höherer Ordnung, wie sie zum Beispiel durch projektive Abbildung eines Objekts von verschiedenen Standpunkten im Raum entstehen. Ursprünglich für die [[Objekterkennung]] entwickelt, kommt der Algorithmus mittlerweile in weiteren Gebieten der [[Bildverarbeitung]] zum Einsatz. Darunter z.B. die [[Bildregistrierung]] bzw. das Erstellen von Panoramabildern aus Einzelaufnahmen ([[Stitching]]), Objektverfolgung in Videos, [[Simultaneous Localization and Mapping|Navigation]] von Robotern oder [[Gestenerkennung]]. </div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Der Algorithmus wurde im Jahre 1999 von [[David Lowe|David G. Lowe]] veröffentlicht und gilt als Referenzverfahren in seinem Einsatzgebiet. Allerdings hat die [[University of British Columbia]] an dem Algorithmus ein US-[[Patent]] inne.&lt;ref&gt;[http://www.google.com/patents/US6711293 US 6711293 B1: Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image] (engl.)&lt;/ref&gt; Die grundlegenden Konzepte von SIFT finden sich jedoch in verschiedenen Weiterentwicklungen anderer Autoren wieder. Dabei konnte der Berechnungsaufwand reduziert und die Robustheit von Detektor und Merkmalsbeschreibungen verbessert werden (z.B. [[SURF]], Affine-SIFT, PCA-SIFT).</div></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Der Algorithmus wurde im Jahre 1999 von [[David Lowe<ins style="font-weight: bold; text-decoration: none;"> (Informatiker)</ins>|David G. Lowe]] veröffentlicht und gilt als Referenzverfahren in seinem Einsatzgebiet. Allerdings hat die [[University of British Columbia]] an dem Algorithmus ein US-[[Patent]] inne.&lt;ref&gt;[http://www.google.com/patents/US6711293 US 6711293 B1: Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image] (engl.)&lt;/ref&gt; Die grundlegenden Konzepte von SIFT finden sich jedoch in verschiedenen Weiterentwicklungen anderer Autoren wieder. Dabei konnte der Berechnungsaufwand reduziert und die Robustheit von Detektor und Merkmalsbeschreibungen verbessert werden (z.B. [[SURF]], Affine-SIFT, PCA-SIFT).</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Literatur ==</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Literatur ==</div></td> </tr> </table> Ureinwohner https://de.wikipedia.org/w/index.php?title=Scale-invariant_feature_transform&diff=170869985&oldid=prev Aka: Halbgeviertstrich 2017-11-10T21:17:29Z <p>Halbgeviertstrich</p> <table style="background-color: #fff; color: #202122;" data-mw="interface"> <col class="diff-marker" /> <col class="diff-content" /> <col class="diff-marker" /> <col class="diff-content" /> <tr class="diff-title" lang="de"> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 10. November 2017, 23:17 Uhr</td> </tr><tr> <td colspan="2" class="diff-lineno">Zeile 4:</td> <td colspan="2" class="diff-lineno">Zeile 4:</td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Literatur ==</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Literatur ==</div></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>* David G. Lowe: ''Object Recognition from Local Scale-Invariant Features''. In: ''ICCV '99 Proceedings of the International Conference on Computer Vision''. Band 2, Seiten <del style="font-weight: bold; text-decoration: none;">1150-1157</del> ([http://www.cs.ubc.ca/~lowe/papers/iccv99.pdf online])</div></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>* David G. Lowe: ''Object Recognition from Local Scale-Invariant Features''. In: ''ICCV '99 Proceedings of the International Conference on Computer Vision''. Band 2, Seiten <ins style="font-weight: bold; text-decoration: none;">1150–1157</ins> ([http://www.cs.ubc.ca/~lowe/papers/iccv99.pdf online])</div></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>* David G. Lowe: ''Distinctive Image Features from Scale-Invariant Keypoints'' In: ''International Journal of Computer Vision''. Band 60, Nr. 2, Seiten <del style="font-weight: bold; text-decoration: none;">91-110</del>, 2004 ([http://www.cs.ubc.ca/~lowe/papers/ijcv04.pdf online])</div></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>* David G. Lowe: ''Distinctive Image Features from Scale-Invariant Keypoints'' In: ''International Journal of Computer Vision''. Band 60, Nr. 2, Seiten <ins style="font-weight: bold; text-decoration: none;">91–110</ins>, 2004 ([http://www.cs.ubc.ca/~lowe/papers/ijcv04.pdf online])</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>* Matthew Brown, David Lowe: ''Automatic Panoramic Image Stitching using Invariant Features.'' In: ''[[International Journal of Computer Vision]]''. Band 74, Nr. 1, August 2007 ([http://www.cs.bath.ac.uk/brown/papers/ijcv2007.pdf online]; PDF; 3,7&amp;nbsp;MB)</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>* Matthew Brown, David Lowe: ''Automatic Panoramic Image Stitching using Invariant Features.'' In: ''[[International Journal of Computer Vision]]''. Band 74, Nr. 1, August 2007 ([http://www.cs.bath.ac.uk/brown/papers/ijcv2007.pdf online]; PDF; 3,7&amp;nbsp;MB)</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>* Thomas Läbe, [[Wolfgang Förstner]]: ''Automatic relative orientation of images.'' In: ''Proceedings of the 5th Turkish-German Joint Geodetic Days, March 29th - 31st, 2006''. Berlin, ISBN 3-9809030-4-4 ([http://www.ipb.uni-bonn.de/fileadmin/publication/pdf/Labe2006Automatic.pdf online])</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>* Thomas Läbe, [[Wolfgang Förstner]]: ''Automatic relative orientation of images.'' In: ''Proceedings of the 5th Turkish-German Joint Geodetic Days, March 29th - 31st, 2006''. Berlin, ISBN 3-9809030-4-4 ([http://www.ipb.uni-bonn.de/fileadmin/publication/pdf/Labe2006Automatic.pdf online])</div></td> </tr> </table> Aka https://de.wikipedia.org/w/index.php?title=Scale-invariant_feature_transform&diff=151354795&oldid=prev Anton Sevarius: Klammern korrigiert | Klammerfehler - Helfer gesucht 2016-02-11T09:57:20Z <p>Klammern korrigiert | <a href="/wiki/Benutzer:Aka/Klammerfehler" class="mw-redirect" title="Benutzer:Aka/Klammerfehler">Klammerfehler - Helfer gesucht</a></p> <table style="background-color: #fff; color: #202122;" data-mw="interface"> <col class="diff-marker" /> <col class="diff-content" /> <col class="diff-marker" /> <col class="diff-content" /> <tr class="diff-title" lang="de"> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 11. Februar 2016, 11:57 Uhr</td> </tr><tr> <td colspan="2" class="diff-lineno">Zeile 7:</td> <td colspan="2" class="diff-lineno">Zeile 7:</td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>* David G. Lowe: ''Distinctive Image Features from Scale-Invariant Keypoints'' In: ''International Journal of Computer Vision''. Band 60, Nr. 2, Seiten 91-110, 2004 ([http://www.cs.ubc.ca/~lowe/papers/ijcv04.pdf online])</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>* David G. Lowe: ''Distinctive Image Features from Scale-Invariant Keypoints'' In: ''International Journal of Computer Vision''. Band 60, Nr. 2, Seiten 91-110, 2004 ([http://www.cs.ubc.ca/~lowe/papers/ijcv04.pdf online])</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>* Matthew Brown, David Lowe: ''Automatic Panoramic Image Stitching using Invariant Features.'' In: ''[[International Journal of Computer Vision]]''. Band 74, Nr. 1, August 2007 ([http://www.cs.bath.ac.uk/brown/papers/ijcv2007.pdf online]; PDF; 3,7&amp;nbsp;MB)</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>* Matthew Brown, David Lowe: ''Automatic Panoramic Image Stitching using Invariant Features.'' In: ''[[International Journal of Computer Vision]]''. Band 74, Nr. 1, August 2007 ([http://www.cs.bath.ac.uk/brown/papers/ijcv2007.pdf online]; PDF; 3,7&amp;nbsp;MB)</div></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>* Thomas Läbe, [[Wolfgang Förstner]]: ''Automatic relative orientation of images.'' In: ''Proceedings of the 5th Turkish-German Joint Geodetic Days, March 29th - 31st, 2006''. Berlin, ISBN 3-9809030-4-4 (http://www.ipb.uni-bonn.de/fileadmin/publication/pdf/Labe2006Automatic.pdf online])</div></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>* Thomas Läbe, [[Wolfgang Förstner]]: ''Automatic relative orientation of images.'' In: ''Proceedings of the 5th Turkish-German Joint Geodetic Days, March 29th - 31st, 2006''. Berlin, ISBN 3-9809030-4-4 (<ins style="font-weight: bold; text-decoration: none;">[</ins>http://www.ipb.uni-bonn.de/fileadmin/publication/pdf/Labe2006Automatic.pdf online])</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>* David G. Lowe: ''Method and Apparatus for Identifying Scale Invariant Features in an image and use of same for locating an object in an image'' Patent US 6,711,293 B1, veröffentlicht am 23. März 2004</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>* David G. Lowe: ''Method and Apparatus for Identifying Scale Invariant Features in an image and use of same for locating an object in an image'' Patent US 6,711,293 B1, veröffentlicht am 23. März 2004</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> </table> Anton Sevarius https://de.wikipedia.org/w/index.php?title=Scale-invariant_feature_transform&diff=150936322&oldid=prev Randonneur: /* Literatur */ defekten Weblink korrigiert 2016-02-01T16:30:23Z <p><span class="autocomment">Literatur: </span> defekten Weblink korrigiert</p> <table style="background-color: #fff; color: #202122;" data-mw="interface"> <col class="diff-marker" /> <col class="diff-content" /> <col class="diff-marker" /> <col class="diff-content" /> <tr class="diff-title" lang="de"> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 1. Februar 2016, 18:30 Uhr</td> </tr><tr> <td colspan="2" class="diff-lineno">Zeile 7:</td> <td colspan="2" class="diff-lineno">Zeile 7:</td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>* David G. Lowe: ''Distinctive Image Features from Scale-Invariant Keypoints'' In: ''International Journal of Computer Vision''. Band 60, Nr. 2, Seiten 91-110, 2004 ([http://www.cs.ubc.ca/~lowe/papers/ijcv04.pdf online])</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>* David G. Lowe: ''Distinctive Image Features from Scale-Invariant Keypoints'' In: ''International Journal of Computer Vision''. Band 60, Nr. 2, Seiten 91-110, 2004 ([http://www.cs.ubc.ca/~lowe/papers/ijcv04.pdf online])</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>* Matthew Brown, David Lowe: ''Automatic Panoramic Image Stitching using Invariant Features.'' In: ''[[International Journal of Computer Vision]]''. Band 74, Nr. 1, August 2007 ([http://www.cs.bath.ac.uk/brown/papers/ijcv2007.pdf online]; PDF; 3,7&amp;nbsp;MB)</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>* Matthew Brown, David Lowe: ''Automatic Panoramic Image Stitching using Invariant Features.'' In: ''[[International Journal of Computer Vision]]''. Band 74, Nr. 1, August 2007 ([http://www.cs.bath.ac.uk/brown/papers/ijcv2007.pdf online]; PDF; 3,7&amp;nbsp;MB)</div></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>* Thomas Läbe, [[Wolfgang Förstner]]: ''Automatic relative orientation of images.'' In: ''Proceedings of the 5th Turkish-German Joint Geodetic Days, March 29th - 31st, 2006''. Berlin, ISBN 3-9809030-4-4 (<del style="font-weight: bold; text-decoration: none;">[</del>http://www.ipb.uni-bonn.de/<del style="font-weight: bold; text-decoration: none;">papers</del>/<del style="font-weight: bold; text-decoration: none;">2006</del>/<del style="font-weight: bold; text-decoration: none;">laebe06.automatic</del>.pdf online])</div></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>* Thomas Läbe, [[Wolfgang Förstner]]: ''Automatic relative orientation of images.'' In: ''Proceedings of the 5th Turkish-German Joint Geodetic Days, March 29th - 31st, 2006''. Berlin, ISBN 3-9809030-4-4 (http://www.ipb.uni-bonn.de/<ins style="font-weight: bold; text-decoration: none;">fileadmin</ins>/<ins style="font-weight: bold; text-decoration: none;">publication</ins>/<ins style="font-weight: bold; text-decoration: none;">pdf/Labe2006Automatic</ins>.pdf online])</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>* David G. Lowe: ''Method and Apparatus for Identifying Scale Invariant Features in an image and use of same for locating an object in an image'' Patent US 6,711,293 B1, veröffentlicht am 23. März 2004</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>* David G. Lowe: ''Method and Apparatus for Identifying Scale Invariant Features in an image and use of same for locating an object in an image'' Patent US 6,711,293 B1, veröffentlicht am 23. März 2004</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> </table> Randonneur https://de.wikipedia.org/w/index.php?title=Scale-invariant_feature_transform&diff=146390732&oldid=prev 141.83.146.129 am 25. September 2015 um 11:57 Uhr 2015-09-25T11:57:51Z <p></p> <table style="background-color: #fff; color: #202122;" data-mw="interface"> <col class="diff-marker" /> <col class="diff-content" /> <col class="diff-marker" /> <col class="diff-content" /> <tr class="diff-title" lang="de"> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 25. September 2015, 13:57 Uhr</td> </tr><tr> <td colspan="2" class="diff-lineno">Zeile 1:</td> <td colspan="2" class="diff-lineno">Zeile 1:</td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>'''Scale-invariant feature transform''' ([[Englische Sprache|engl.]], „''skaleninvariante Merkmalstransformation''“, kurz '''SIFT''') ist ein [[Algorithmus]] zur Detektion und Beschreibung lokaler <del style="font-weight: bold; text-decoration: none;">M</del>[[Interest-Operator|<del style="font-weight: bold; text-decoration: none;">erkmale</del>]] in Bildern. Der Detektor und die Merkmalsbeschreibungen sind, in gewissen Grenzen, invariant gegenüber [[Koordinatentransformation]]en wie Translation, Rotation und Skalierung. Sie sind außerdem robust gegen Beleuchtungsvariation, Bildrauschen und geringere geometrische Deformation höherer Ordnung, wie sie zum Beispiel durch projektive Abbildung eines Objekts von verschiedenen Standpunkten im Raum entstehen. Ursprünglich für die [[Objekterkennung]] entwickelt, kommt der Algorithmus mittlerweile in weiteren Gebieten der [[Bildverarbeitung]] zum Einsatz. Darunter z.B. die [[Bildregistrierung]] bzw. das Erstellen von Panoramabildern aus Einzelaufnahmen ([[Stitching]]), Objektverfolgung in Videos, [[Simultaneous Localization and Mapping|Navigation]] von Robotern oder [[Gestenerkennung]]. </div></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>'''Scale-invariant feature transform''' ([[Englische Sprache|engl.]], „''skaleninvariante Merkmalstransformation''“, kurz '''SIFT''') ist ein [[Algorithmus]] zur Detektion und Beschreibung lokaler [[Interest-Operator|<ins style="font-weight: bold; text-decoration: none;">Merkmale</ins>]] in Bildern. Der Detektor und die Merkmalsbeschreibungen sind, in gewissen Grenzen, invariant gegenüber [[Koordinatentransformation]]en wie Translation, Rotation und Skalierung. Sie sind außerdem robust gegen Beleuchtungsvariation, Bildrauschen und geringere geometrische Deformation höherer Ordnung, wie sie zum Beispiel durch projektive Abbildung eines Objekts von verschiedenen Standpunkten im Raum entstehen. Ursprünglich für die [[Objekterkennung]] entwickelt, kommt der Algorithmus mittlerweile in weiteren Gebieten der [[Bildverarbeitung]] zum Einsatz. Darunter z.B. die [[Bildregistrierung]] bzw. das Erstellen von Panoramabildern aus Einzelaufnahmen ([[Stitching]]), Objektverfolgung in Videos, [[Simultaneous Localization and Mapping|Navigation]] von Robotern oder [[Gestenerkennung]]. </div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Der Algorithmus wurde im Jahre 1999 von [[David Lowe|David G. Lowe]] veröffentlicht und gilt als Referenzverfahren in seinem Einsatzgebiet. Allerdings hat die [[University of British Columbia]] an dem Algorithmus ein US-[[Patent]] inne.&lt;ref&gt;[http://www.google.com/patents/US6711293 US 6711293 B1: Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image] (engl.)&lt;/ref&gt; Die grundlegenden Konzepte von SIFT finden sich jedoch in verschiedenen Weiterentwicklungen anderer Autoren wieder. Dabei konnte der Berechnungsaufwand reduziert und die Robustheit von Detektor und Merkmalsbeschreibungen verbessert werden (z.B. [[SURF]], Affine-SIFT, PCA-SIFT).</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>Der Algorithmus wurde im Jahre 1999 von [[David Lowe|David G. Lowe]] veröffentlicht und gilt als Referenzverfahren in seinem Einsatzgebiet. Allerdings hat die [[University of British Columbia]] an dem Algorithmus ein US-[[Patent]] inne.&lt;ref&gt;[http://www.google.com/patents/US6711293 US 6711293 B1: Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image] (engl.)&lt;/ref&gt; Die grundlegenden Konzepte von SIFT finden sich jedoch in verschiedenen Weiterentwicklungen anderer Autoren wieder. Dabei konnte der Berechnungsaufwand reduziert und die Robustheit von Detektor und Merkmalsbeschreibungen verbessert werden (z.B. [[SURF]], Affine-SIFT, PCA-SIFT).</div></td> </tr> </table> 141.83.146.129 https://de.wikipedia.org/w/index.php?title=Scale-invariant_feature_transform&diff=142775494&oldid=prev Aegirxx: Umstrukturiert. Originalpaper in Lit. aufgenommen. 2015-06-04T08:29:00Z <p>Umstrukturiert. Originalpaper in Lit. aufgenommen.</p> <table style="background-color: #fff; color: #202122;" data-mw="interface"> <col class="diff-marker" /> <col class="diff-content" /> <col class="diff-marker" /> <col class="diff-content" /> <tr class="diff-title" lang="de"> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 4. Juni 2015, 10:29 Uhr</td> </tr><tr> <td colspan="2" class="diff-lineno">Zeile 1:</td> <td colspan="2" class="diff-lineno">Zeile 1:</td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>'''Scale-invariant feature transform''' ([[Englische Sprache|engl.]], „''skaleninvariante Merkmalstransformation''“, kurz '''SIFT''') ist ein [[Algorithmus]] zur <del style="font-weight: bold; text-decoration: none;">Extraktion</del> lokaler [[Interest-Operator|<del style="font-weight: bold; text-decoration: none;">Bildmerkmale</del>]] <del style="font-weight: bold; text-decoration: none;">aus [[Optische</del> <del style="font-weight: bold; text-decoration: none;">Abbildung|Abbildungen]]</del>. <del style="font-weight: bold; text-decoration: none;">Er</del> <del style="font-weight: bold; text-decoration: none;">kann</del> <del style="font-weight: bold; text-decoration: none;">vor</del> <del style="font-weight: bold; text-decoration: none;">allem</del> <del style="font-weight: bold; text-decoration: none;">bei</del> <del style="font-weight: bold; text-decoration: none;">der</del> [[<del style="font-weight: bold; text-decoration: none;">Bildregistrierung</del>]] <del style="font-weight: bold; text-decoration: none;">verwendet</del> <del style="font-weight: bold; text-decoration: none;">werden</del>. <del style="font-weight: bold; text-decoration: none;">Er</del> <del style="font-weight: bold; text-decoration: none;">wurde</del> <del style="font-weight: bold; text-decoration: none;">von</del> <del style="font-weight: bold; text-decoration: none;">[[David</del> <del style="font-weight: bold; text-decoration: none;">Lowe|David</del> <del style="font-weight: bold; text-decoration: none;">G.</del> <del style="font-weight: bold; text-decoration: none;">Lowe]]</del> <del style="font-weight: bold; text-decoration: none;">an</del> <del style="font-weight: bold; text-decoration: none;">der</del> <del style="font-weight: bold; text-decoration: none;">[[University</del> <del style="font-weight: bold; text-decoration: none;">of</del> <del style="font-weight: bold; text-decoration: none;">British</del> <del style="font-weight: bold; text-decoration: none;">Columbia]]</del> <del style="font-weight: bold; text-decoration: none;">im</del> <del style="font-weight: bold; text-decoration: none;">Jahre</del> <del style="font-weight: bold; text-decoration: none;">1999</del> <del style="font-weight: bold; text-decoration: none;">veröffentlicht.</del> <del style="font-weight: bold; text-decoration: none;">Die</del> <del style="font-weight: bold; text-decoration: none;">Universität</del> <del style="font-weight: bold; text-decoration: none;">hat</del> <del style="font-weight: bold; text-decoration: none;">an</del> <del style="font-weight: bold; text-decoration: none;">dem</del> <del style="font-weight: bold; text-decoration: none;">Algorithmus</del> <del style="font-weight: bold; text-decoration: none;">ein</del> <del style="font-weight: bold; text-decoration: none;">US-</del>[[<del style="font-weight: bold; text-decoration: none;">Patent</del>]] <del style="font-weight: bold; text-decoration: none;">inne.&lt;ref&gt;[http://www.google.com/patents/US6711293</del> <del style="font-weight: bold; text-decoration: none;">US</del> <del style="font-weight: bold; text-decoration: none;">6711293</del> <del style="font-weight: bold; text-decoration: none;">B1:</del> <del style="font-weight: bold; text-decoration: none;">Method</del> <del style="font-weight: bold; text-decoration: none;">and</del> <del style="font-weight: bold; text-decoration: none;">apparatus</del> <del style="font-weight: bold; text-decoration: none;">for</del> <del style="font-weight: bold; text-decoration: none;">identifying</del> <del style="font-weight: bold; text-decoration: none;">scale</del> <del style="font-weight: bold; text-decoration: none;">invariant</del> <del style="font-weight: bold; text-decoration: none;">features</del> <del style="font-weight: bold; text-decoration: none;">in</del> <del style="font-weight: bold; text-decoration: none;">an</del> <del style="font-weight: bold; text-decoration: none;">image</del> <del style="font-weight: bold; text-decoration: none;">and</del> <del style="font-weight: bold; text-decoration: none;">use</del> <del style="font-weight: bold; text-decoration: none;">of</del> <del style="font-weight: bold; text-decoration: none;">same</del> <del style="font-weight: bold; text-decoration: none;">for</del> <del style="font-weight: bold; text-decoration: none;">locating</del> <del style="font-weight: bold; text-decoration: none;">an</del> <del style="font-weight: bold; text-decoration: none;">object</del> in <del style="font-weight: bold; text-decoration: none;">an</del> <del style="font-weight: bold; text-decoration: none;">image</del>] <del style="font-weight: bold; text-decoration: none;">(engl</del>.<del style="font-weight: bold; text-decoration: none;">)&lt;/ref&gt;</del></div></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>'''Scale-invariant feature transform''' ([[Englische Sprache|engl.]], „''skaleninvariante Merkmalstransformation''“, kurz '''SIFT''') ist ein [[Algorithmus]] zur <ins style="font-weight: bold; text-decoration: none;">Detektion und Beschreibung</ins> lokaler <ins style="font-weight: bold; text-decoration: none;">M</ins>[[Interest-Operator|<ins style="font-weight: bold; text-decoration: none;">erkmale</ins>]] <ins style="font-weight: bold; text-decoration: none;">in</ins> <ins style="font-weight: bold; text-decoration: none;">Bildern</ins>. <ins style="font-weight: bold; text-decoration: none;">Der</ins> <ins style="font-weight: bold; text-decoration: none;">Detektor</ins> <ins style="font-weight: bold; text-decoration: none;">und</ins> <ins style="font-weight: bold; text-decoration: none;">die</ins> <ins style="font-weight: bold; text-decoration: none;">Merkmalsbeschreibungen</ins> <ins style="font-weight: bold; text-decoration: none;">sind, in gewissen Grenzen, invariant gegenüber</ins> [[<ins style="font-weight: bold; text-decoration: none;">Koordinatentransformation</ins>]]<ins style="font-weight: bold; text-decoration: none;">en</ins> <ins style="font-weight: bold; text-decoration: none;">wie</ins> <ins style="font-weight: bold; text-decoration: none;">Translation, Rotation und Skalierung</ins>. <ins style="font-weight: bold; text-decoration: none;">Sie</ins> <ins style="font-weight: bold; text-decoration: none;">sind</ins> <ins style="font-weight: bold; text-decoration: none;">außerdem</ins> <ins style="font-weight: bold; text-decoration: none;">robust</ins> <ins style="font-weight: bold; text-decoration: none;">gegen</ins> <ins style="font-weight: bold; text-decoration: none;">Beleuchtungsvariation,</ins> <ins style="font-weight: bold; text-decoration: none;">Bildrauschen</ins> <ins style="font-weight: bold; text-decoration: none;">und</ins> <ins style="font-weight: bold; text-decoration: none;">geringere</ins> <ins style="font-weight: bold; text-decoration: none;">geometrische</ins> <ins style="font-weight: bold; text-decoration: none;">Deformation</ins> <ins style="font-weight: bold; text-decoration: none;">höherer</ins> <ins style="font-weight: bold; text-decoration: none;">Ordnung,</ins> <ins style="font-weight: bold; text-decoration: none;">wie</ins> <ins style="font-weight: bold; text-decoration: none;">sie</ins> <ins style="font-weight: bold; text-decoration: none;">zum</ins> <ins style="font-weight: bold; text-decoration: none;">Beispiel</ins> <ins style="font-weight: bold; text-decoration: none;">durch</ins> <ins style="font-weight: bold; text-decoration: none;">projektive</ins> <ins style="font-weight: bold; text-decoration: none;">Abbildung</ins> <ins style="font-weight: bold; text-decoration: none;">eines</ins> <ins style="font-weight: bold; text-decoration: none;">Objekts</ins> <ins style="font-weight: bold; text-decoration: none;">von</ins> <ins style="font-weight: bold; text-decoration: none;">verschiedenen Standpunkten im Raum entstehen. Ursprünglich für die</ins> [[<ins style="font-weight: bold; text-decoration: none;">Objekterkennung</ins>]] <ins style="font-weight: bold; text-decoration: none;">entwickelt,</ins> <ins style="font-weight: bold; text-decoration: none;">kommt</ins> <ins style="font-weight: bold; text-decoration: none;">der</ins> <ins style="font-weight: bold; text-decoration: none;">Algorithmus</ins> <ins style="font-weight: bold; text-decoration: none;">mittlerweile</ins> <ins style="font-weight: bold; text-decoration: none;">in</ins> <ins style="font-weight: bold; text-decoration: none;">weiteren</ins> <ins style="font-weight: bold; text-decoration: none;">Gebieten</ins> <ins style="font-weight: bold; text-decoration: none;">der</ins> <ins style="font-weight: bold; text-decoration: none;">[[Bildverarbeitung]]</ins> <ins style="font-weight: bold; text-decoration: none;">zum</ins> <ins style="font-weight: bold; text-decoration: none;">Einsatz.</ins> <ins style="font-weight: bold; text-decoration: none;">Darunter</ins> <ins style="font-weight: bold; text-decoration: none;">z.B.</ins> <ins style="font-weight: bold; text-decoration: none;">die</ins> <ins style="font-weight: bold; text-decoration: none;">[[Bildregistrierung]]</ins> <ins style="font-weight: bold; text-decoration: none;">bzw.</ins> <ins style="font-weight: bold; text-decoration: none;">das</ins> <ins style="font-weight: bold; text-decoration: none;">Erstellen</ins> <ins style="font-weight: bold; text-decoration: none;">von</ins> <ins style="font-weight: bold; text-decoration: none;">Panoramabildern</ins> <ins style="font-weight: bold; text-decoration: none;">aus</ins> <ins style="font-weight: bold; text-decoration: none;">Einzelaufnahmen ([[Stitching]]), Objektverfolgung</ins> in <ins style="font-weight: bold; text-decoration: none;">Videos,</ins> <ins style="font-weight: bold; text-decoration: none;">[[Simultaneous Localization and Mapping|Navigation]</ins>] <ins style="font-weight: bold; text-decoration: none;">von Robotern oder [[Gestenerkennung]]</ins>.<ins style="font-weight: bold; text-decoration: none;"> </ins></div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td colspan="2" class="diff-empty diff-side-deleted"></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>Der Algorithmus wurde im Jahre 1999 von [[David Lowe|David G. Lowe]] veröffentlicht und gilt als Referenzverfahren in seinem Einsatzgebiet. Allerdings hat die [[University of British Columbia]] an dem Algorithmus ein US-[[Patent]] inne.&lt;ref&gt;[http://www.google.com/patents/US6711293 US 6711293 B1: Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image] (engl.)&lt;/ref&gt; Die grundlegenden Konzepte von SIFT finden sich jedoch in verschiedenen Weiterentwicklungen anderer Autoren wieder. Dabei konnte der Berechnungsaufwand reduziert und die Robustheit von Detektor und Merkmalsbeschreibungen verbessert werden (z.B. [[SURF]], Affine-SIFT, PCA-SIFT).</div></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die Bilder werden im ersten Schritt mit einem [[Gauß-Filter]] geglättet, um sie vom [[Bildrauschen]] zu bereinigen. Das Bild wird danach in lokale Merkmalspunkte unterteilt, die unempfindlich gegen perspektivische Verzerrung sind. Markant sind Objekte, deren Eigenschaften von ihrem Hintergrund abweichen. Sie lassen sich durch ihre [[Histogramm]]e kennzeichnen, deren Merkmale in [[Vektor]]en gespeichert werden, die zum Vergleich dienen. </div></td> <td colspan="2" class="diff-empty diff-side-added"></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><br /></td> <td colspan="2" class="diff-empty diff-side-added"></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Die extrahierten Merkmale sind unempfindlich gegenüber [[Koordinatentransformation]]en wie Translation, Rotation und Skalierung. Sie sind außerdem robust gegen Beleuchtungsvariation, Bildrauschen und geringere geometrische Deformation höherer Ordnung, wie sie zum Beispiel durch projektive Abbildung eines Objekts von verschiedenen Standpunkten im Raum entstehen. </div></td> <td colspan="2" class="diff-empty diff-side-added"></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><br /></td> <td colspan="2" class="diff-empty diff-side-added"></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>Für die [[Objekterkennung]] können mit Hilfe des [[RANSAC-Algorithmus]] die Daten von mehreren, zufällig gewählten Merkmalspunkten verschiedener Abbildungen auf eine Übereinstimmung verglichen werden. Verwendung findet dies beispielsweise beim [[Stitching]]. </div></td> <td colspan="2" class="diff-empty diff-side-added"></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Literatur ==</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>== Literatur ==</div></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>* David G. Lowe: ''<del style="font-weight: bold; text-decoration: none;">Distinctive</del> <del style="font-weight: bold; text-decoration: none;">Image</del> <del style="font-weight: bold; text-decoration: none;">Features</del> <del style="font-weight: bold; text-decoration: none;">from</del> Scale-Invariant <del style="font-weight: bold; text-decoration: none;">Keypoints</del>'' In: ''<del style="font-weight: bold; text-decoration: none;">International</del> <del style="font-weight: bold; text-decoration: none;">Journal</del> of Computer Vision''. Band<del style="font-weight: bold; text-decoration: none;"> 60, Nr.</del> 2, Seiten <del style="font-weight: bold; text-decoration: none;">91</del>-<del style="font-weight: bold; text-decoration: none;">110,</del> <del style="font-weight: bold; text-decoration: none;">2004</del> ([http://www.cs.ubc.ca/~lowe/papers/iccv99.pdf online])</div></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>* David G. Lowe: ''<ins style="font-weight: bold; text-decoration: none;">Object</ins> <ins style="font-weight: bold; text-decoration: none;">Recognition</ins> <ins style="font-weight: bold; text-decoration: none;">from</ins> <ins style="font-weight: bold; text-decoration: none;">Local</ins> Scale-Invariant <ins style="font-weight: bold; text-decoration: none;">Features</ins>''<ins style="font-weight: bold; text-decoration: none;">.</ins> In: ''<ins style="font-weight: bold; text-decoration: none;">ICCV '99</ins> <ins style="font-weight: bold; text-decoration: none;">Proceedings</ins> of<ins style="font-weight: bold; text-decoration: none;"> the International Conference on</ins> Computer Vision''. Band 2, Seiten <ins style="font-weight: bold; text-decoration: none;">1150</ins>-<ins style="font-weight: bold; text-decoration: none;">1157</ins> ([http://www.cs.ubc.ca/~lowe/papers/iccv99.pdf online])</div></td> </tr> <tr> <td colspan="2" class="diff-empty diff-side-deleted"></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>* David G. Lowe: ''Distinctive Image Features from Scale-Invariant Keypoints'' In: ''International Journal of Computer Vision''. Band 60, Nr. 2, Seiten 91-110, 2004 ([http://www.cs.ubc.ca/~lowe/papers/ijcv04.pdf online])</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>* Matthew Brown, David Lowe: ''Automatic Panoramic Image Stitching using Invariant Features.'' In: ''[[International Journal of Computer Vision]]''. Band 74, Nr. 1, August 2007 ([http://www.cs.bath.ac.uk/brown/papers/ijcv2007.pdf online]; PDF; 3,7&amp;nbsp;MB)</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>* Matthew Brown, David Lowe: ''Automatic Panoramic Image Stitching using Invariant Features.'' In: ''[[International Journal of Computer Vision]]''. Band 74, Nr. 1, August 2007 ([http://www.cs.bath.ac.uk/brown/papers/ijcv2007.pdf online]; PDF; 3,7&amp;nbsp;MB)</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>* Thomas Läbe, [[Wolfgang Förstner]]: ''Automatic relative orientation of images.'' In: ''Proceedings of the 5th Turkish-German Joint Geodetic Days, March 29th - 31st, 2006''. Berlin, ISBN 3-9809030-4-4 ([http://www.ipb.uni-bonn.de/papers/2006/laebe06.automatic.pdf online])</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>* Thomas Läbe, [[Wolfgang Förstner]]: ''Automatic relative orientation of images.'' In: ''Proceedings of the 5th Turkish-German Joint Geodetic Days, March 29th - 31st, 2006''. Berlin, ISBN 3-9809030-4-4 ([http://www.ipb.uni-bonn.de/papers/2006/laebe06.automatic.pdf online])</div></td> </tr> </table> Aegirxx https://de.wikipedia.org/w/index.php?title=Scale-invariant_feature_transform&diff=142670752&oldid=prev Aegirxx: Nach Kat. Bildverarbeitung verschoben 2015-05-31T20:16:04Z <p>Nach Kat. Bildverarbeitung verschoben</p> <table style="background-color: #fff; color: #202122;" data-mw="interface"> <col class="diff-marker" /> <col class="diff-content" /> <col class="diff-marker" /> <col class="diff-content" /> <tr class="diff-title" lang="de"> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">← Nächstältere Version</td> <td colspan="2" style="background-color: #fff; color: #202122; text-align: center;">Version vom 31. Mai 2015, 22:16 Uhr</td> </tr><tr> <td colspan="2" class="diff-lineno">Zeile 20:</td> <td colspan="2" class="diff-lineno">Zeile 20:</td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>&lt;references/&gt;</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>&lt;references/&gt;</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><br /></td> </tr> <tr> <td class="diff-marker" data-marker="−"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #ffe49c; vertical-align: top; white-space: pre-wrap;"><div>[[Kategorie:<del style="font-weight: bold; text-decoration: none;">Algorithmus (Computergrafik)</del>]]</div></td> <td class="diff-marker" data-marker="+"></td> <td style="color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #a3d3ff; vertical-align: top; white-space: pre-wrap;"><div>[[Kategorie:<ins style="font-weight: bold; text-decoration: none;">Bildverarbeitung</ins>]]</div></td> </tr> <tr> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>[[Kategorie:Panoramafotografie]]</div></td> <td class="diff-marker"></td> <td style="background-color: #f8f9fa; color: #202122; font-size: 88%; border-style: solid; border-width: 1px 1px 1px 4px; border-radius: 0.33em; border-color: #eaecf0; vertical-align: top; white-space: pre-wrap;"><div>[[Kategorie:Panoramafotografie]]</div></td> </tr> </table> Aegirxx