Zum Inhalt springen

AlexNet

aus Wikipedia, der freien Enzyklopädie
Blockdiagramm des Aufbaus von AlexNet

AlexNet ist eine Convolutional-Neural-Network-Architektur, die für Bildklassifizierungsaufgaben entwickelt wurde. Sie gilt als erste Anwendung von Deep Convolutional Networks, die im Bereich der Bilderkennung herausragende Leistungen zeigte. Bei der ImageNet Large Scale Visual Recognition Challenge erreichte sie im Jahr 2012 einen Top-5 Fehler von 15,3 % und war damit mehr als 10 Prozentpunkte besser als der zweitplatzierte Algorithmus.[1]

Alexnet wurde 2012 von Alex Krizhevsky in Zusammenarbeit mit Ilya Sutskever und seinem Doktorvater Geoffrey Hinton an der University of Toronto entwickelt. Es hat 60 Millionen Parameter, 650.000 Neuronen und 8 Schichten. AlexNet zeigte, dass die Tiefe des Modells für seine hohe Leistung unerlässlich war; diese war zwar rechenintensiv, was aber durch die Nutzung von Grafikprozessoren (GPUs) während des Trainings handhabbar wurde.

Der Erfolg von AlexNet wurde durch die Konvergenz dreier Entwicklungen möglich, die in den zehn Jahren zuvor gereift waren: Die Verfügbarkeit großer gelabelter Datensätze, die Verfügbarkeit von GPU-Computing und verbesserte Trainingsmethoden für tiefe neuronale Netze. ImageNet bot ab 2009 Daten, die für das Training tiefer Modelle für eine breite Palette von Objektkategorien erforderlich waren und Fortschritte in der GPU-Programmierung durch die im Jahr 2007 eingeführte CUDA-Plattform von Nvidia erlaubten das Training großer Modelle. Zusammen mit algorithmischen Verbesserungen ermöglichten diese Faktoren AlexNet, eine hohe Leistung bei großen Benchmarks der visuellen Erkennung zu erzielen.

Die Architektur beeinflusste eine große Anzahl nachfolgender Arbeiten im Bereich Deep Learning, insbesondere bei der Anwendung neuronaler Netze auf Computer Vision. Mit Stand 2025 wurde das AlexNet Paper über 170.000 mal zitiert.[2] AlexNet markierte den Startpunkt eines bis heute andauernden Booms im Bereich künstlicher Intelligenz,[3] so dass bereits im Jahr 2015 die Fehlerquote bei der ImageNet Large Scale Visual Recognition Challenge von einem deutlich aufwändigeren neuronalen Netz mit über 100 Schichten auf 3,57 % gedrückt werden konnte.[4]

Geofrey Hinton wurde für seine Beiträge im Bereich künstlicher Neuronaler Netzwerke im Jahr 2024 mit dem Nobelpreis geehrt. Der Quellcode von AlexNet wurde über das Computer History Museum unter einer BSD-Lizenz gemeinfrei gestellt.[5]

The Moment we stopped understanding AI [AlexNet] YouTube

Einzelnachweise

[Bearbeiten | Quelltext bearbeiten]
  1. Alex Krizhevsky, Ilya Sutskever, Geoffrey E. Hinton: ImageNet classification with deep convolutional neural networks. In: Commun. ACM. Band 60, Nr. 6, 24. Mai 2017, ISSN 0001-0782, S. 84–90, doi:10.1145/3065386 (acm.org [abgerufen am 15. Juni 2025]).
  2. Google Scholar. Abgerufen am 16. Juni 2025.
  3. From not working to neural networking. In: The Economist. ISSN 0013-0613 (economist.com [abgerufen am 17. Juni 2025]).
  4. Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun: Deep Residual Learning for Image Recognition. In: 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Juni 2016, S. 770–778, doi:10.1109/CVPR.2016.90 (ieee.org [abgerufen am 18. Juni 2025]).
  5. computerhistory/AlexNet-Source-Code. Computer History Museum, 15. Juni 2025, abgerufen am 16. Juni 2025.