Wie man Hardwaretheorie in Bildverarbeitungssystemen erforscht [geschlossen]

Ich versuche, die Theorie (für Hardware) nachzulesen, wie Hardware in einem Vision/Kamera-System vom Kamerasensor bis hin zu den Pixeln auf dem Bildschirm funktioniert.

Ich weiß nicht, was ich anfangen soll zu googeln, um zu verstehen, wie sich der Zeitbereich auf den räumlichen Bereich und die dazwischen liegende Hardware (wie in Mobiltelefonen) bezieht. Wonach soll ich suchen?

PS: Entschuldigung im Voraus für die vage Frage, aber auf der Suche nach einer Richtung.

Es hängt wirklich vom Sensor und der Technologie ab. Wenn Sie sich wirklich damit befassen möchten, wäre es eine gute Möglichkeit, zu versuchen, einen CMOS-Imager mit einem Mikrocontroller zu verbinden

Antworten (2)

Das ist eine sehr weit gefasste Frage, aber um Ihnen den Einstieg zu erleichtern, hier einige Themen.

Bei Kameras sollten Sie sich umsehen

  • Ungleichmäßigkeitskorrektur
  • Entfernung toter Pixel
  • automatische Belichtungssteuerung
  • Kontrastverstärkung
  • Gamma-Korrektur
  • Signalformatierung und -übertragung

Für Displays werden Sie wollen

  • Signalempfang und Dekodierung
  • Bildratenanpassung
  • Anpassung der Geometrie (Rahmengröße).
  • Panel-Treiber

Maschinelles Sehen ist ein ganz anderes Thema, als ein Bild auf einem Display anzuzeigen. Es geht darum, Kanten in den Bilddaten zu finden und auf das Vorhandensein von Formen und Objekten in der Szene zu schließen, damit die Software Entscheidungen darüber treffen kann, was sie "sieht". Ein guter Ausgangspunkt dafür ist OpenCV.org

Die menschliche Netzhaut bietet eine lokalisierte Gradientenerkennung durch Faltung (Mexikanischer Hut); Machine Vision verwendet die gleichen Methoden. Sobald lokale Gradienten erkannt werden, nutzt die Netzhaut ihre Parallelität (100 Millionen Pixel), um lokale, mittlere und große "Texturen" zu untersuchen; Störungen der "Textur" werden für Menschen sehr interessant. Form-aus-Textur und Form-aus-monokularer-Okklusion lassen Menschen ein 3_D-Modell der Welt ableiten.

Die maschinelle Bildverarbeitung verfügt noch nicht über diese 100-Millionen-Pixel-in-Parallel-Verarbeitung.

Hinsichtlich des Prozesses von Sensor zu Pixel auf dem Bildschirm verwendet der Sensor ein Diodengitter, wobei diese Dioden eine ausreichende Übergangstiefe haben, um mit einer gewissen Wahrscheinlichkeit die Photonen zu absorbieren und ein Elektron oder zwei oder tausend zu sammeln. DarkCurrent legt die Erkennungsebene fest. In regelmäßigen Abständen werden diese Dioden von ihren Elektronen befreit, wenn die Elektronen in Spannungen umgewandelt werden und diese Spannungen zu quantisierten Zahlen werden, die außerhalb des Chips an verschiedene Rechenmaschinen gesendet werden. Oder Ihr Bildschirm.