Früher hatten wir nur Schwarz-Weiß-Fotos, dann bekamen wir Farbfilme zum Fotografieren. Zu Beginn des 21. Jahrhunderts wurden digitale Fotos immer beliebter, und allein die Anzahl der Pixel nahm rapide zu.
Wie sieht in 30 Jahren ein typisches Foto aus? Hat es viel mehr Pixel als moderne Digitalfotos? Oder hätte es andere Verbesserungen gegenüber der aktuellen Fototechnologie?
30 Jahre sind nicht viel, um die Fotografie drastisch zu verändern, es ist im Grunde dasselbe seit ihren Anfängen. Farbe ist ein einfacher Schritt, digital ist, weil jetzt alles digital ist. Hologramme sind da draußen, aber nicht praktisch, nicht nur, weil uns die Technologie fehlt, aber es ist nicht sehr praktisch.
Die einzige Verbesserung, die ich in 30 Jahren sehen konnte, ist, dass die Stereographie häufiger wird, dieser Trend hat bereits begonnen. Ich würde sagen, mehr Kameras werden mit mehreren Objektiven ausgestattet sein, um Stereobilder zu konstruieren. Wahrscheinlich würden 3D-Bildschirme ohne Brille allgemein verfügbar werden. Damit könnte die fast 100 Jahre alte Technik endlich zu einem Höhenflug werden.
Wenn Sie nach einem weiteren Fortschritt suchen, den Sie in Ihrer Geschichte verwenden können, ziehen Sie Lichtfeldkameras , 3D-Bilder mit einer Linse oder Sensoren in Betracht, die auf festen Beugungsgittern oder Hologrammen basieren, die überhaupt keine Linsen benötigen, aber flach wie Käferaugen sind .
Sensoren nähern sich hinsichtlich der Empfindlichkeit der Quantengrenze. High-End-Sensoren fügen darüber hinaus sehr wenig Rauschen hinzu. Ich sehe die große teure Seite der Dinge, die sich in billigere Geräte bewegen.
Ein herkömmliches Objektiv muss jedoch groß sein und mit der Sensorgröße skalieren. Daher werden sehr kompakte oder flache Geräte anfangen, „bahnbrechende“ Objektive auf etwas größeren Sensoren zu verwenden, da die Sensorgröße der ultimative Qualitätsbegrenzer ist.
Wir haben bereits gesehen, dass das Konzept von ein paar Sekunden Animation eine eigene Nische einnimmt. Es kann zum Stil eines Porträts werden, diese Idee zu verwenden, um den Betrachter aktiv anzulächeln oder was auch immer.
Wie werden Bilder präsentiert? Ein animiertes Bild erfordert eher einen Bildschirm als dummes Papier. Aber wie viele Bilder drucken und aufhängen? Die wenigen dauerhaften Wandrahmen könnten sehr wohl Vollbildschirme sein! Aber auch heute noch werden die meisten Bilder auf Geräten geteilt und nicht gedruckt.
Wenn ich ein großes gerahmtes Bild der Golden Gate Bridge kaufe, um es an die Wand zu hängen, ist es vielleicht kein statisches Bild, sondern ändert sich mit der Tageszeit, dem Wetter und den Jahreszeiten.
Vielleicht der dedizierte Rahmen, der „Hallo, Oma!“ zeigt. wird alle paar Tage automatisch aktualisiert, wenn das Kind vor dem Abendessen daran erinnert/aufgefordert wird, „Großmutter Hallo zu sagen“.
Neben einer verbesserten Technologie zur Bilderfassung sehe ich daher eine Weiterentwicklung der Technologie und der Produkte zur Verwaltung und Anzeige dieser riesigen Datenmenge, die generiert wird.
Während es mehr Pixel, bessere Fokussierung und so weiter geben wird, denke ich, dass die große Veränderung das Ende des Standbilds sein wird.
„Warum bewegen sie sich nicht?“, werden Jugendliche beim Betrachten alter Fotos fragen.
Lichtfeldfotografie erfasst Informationen über das Lichtfeld, das von einer Szene ausgeht; das heißt, die Lichtintensität in einer Szene und auch die Richtung, in der sich die Lichtstrahlen im Raum ausbreiten.
Die Lichtfeldfotografie ermöglicht es Ihnen, abhängig von den Besonderheiten des Geräts, das das Bild aufgenommen hat, Bilder mit variabler Schärfentiefe sowie Hologramme anzuzeigen. Diese Technologie ist auch die Grundlage ( laut nVidia 1 , 2 ) für Virtual-Reality-Displays der nächsten Generation, da Sie sich auf die Details konzentrieren können, auf die Sie sich konzentrieren möchten, um ein realistischeres Erlebnis zu erhalten.
Die Technologie wird derzeit nur sehr begrenzt eingesetzt, da sie sowohl in Bezug auf Geld als auch auf die Speicherung von Informationen sehr teuer ist. Ein einzelnes Standbild kann weit über 50 GB wiegen.
Wenn die Dinge gut laufen, können Sie davon ausgehen, dass diese Technologie in 30 Jahren alltäglich sein wird.
Ich erwarte mehr Farbtiefe. Derzeit müssen wir eine HDR-Nachbearbeitung durchführen, um ein anständiges Ergebnis aus einer Szene mit großem Kontrast (Himmel/Boden, Innen/Außen usw.) zu erhalten. Mehr Bits an Intensitätsdaten ermöglichen eine solche Verarbeitung aus einem einzigen Bild.
Allgegenwärtige Sensoren. Wenn ein Foto aufgenommen wird, ist es eine Sammlung aller Umgebungsdaten und Sensor-Feeds im Rahmen. Die Fotodaten selbst werden wahrscheinlich nur eine Definition dessen sein, was „im Rahmen“ ist.
Die Daten könnten so einfach sein wie wann, wo und Darstellungsbeschreibungen.
Vielleicht können wir in 30 Jahren nicht nur aus einer Perspektive aufnehmen, sondern alles in einem bestimmten Radius aufnehmen. Später können wir diese Aufnahme vielleicht so abspielen, dass wir sie aus jedem Blickwinkel betrachten können. Ein Porträt könnte vollständig dreidimensional werden, sodass sich der Betrachter um das Motiv herum bewegen und es sogar von hinten interaktiv betrachten kann.
Schließlich bedeutet Fotografie nur „Malen mit Licht“, Holografie ist nur der nächste Schritt.
Herkömmliche Kameras für Verbraucher können eine viel größere Farbpalette als nur das sichtbare Spektrum erfassen und speichern, und es wird Software zur einfachen Rot- oder Blauverschiebung Ihrer Bilder geben, ausgehend von einem Bild des lokalen WLANs am roten Ende, durch eine Wärmekarte, durch sichtbares Licht, weiter durch Ultraviolett bis zu einem Röntgenbild am blauen Ende.
Offensichtlich wären die oberen Bereiche viel dunkler, da höhere Wellenlängen von der Atmosphäre absorbiert werden, und die unteren Bereiche hätten eine geringere Auflösung, aber die Software-Interpolation wird in der Lage sein, bei allen Wellenlängen eine einigermaßen klare Sicht zu liefern.
Auch Software-Bildverarbeitung wird viel stärker zum Einsatz kommen. Einfache Bildbearbeitungen wie das Entfernen von Personen im Hintergrund oder das Erstellen von Action-Aufnahmen werden einfach und automatisiert.
Ein 3D-animiertes fühlbares Duftgeräusch „GIF“ wäre der heilige Gral der Fotografie. Obwohl ich bezweifle, dass es immer noch einfach "Fotografie" genannt werden kann.
Eingebettete Mikro-QR-Codes (oder andere Datendrucktechnologien) in einem für das bloße Auge unsichtbaren Maßstab/Spektrum. Diese Fotos von Harry Potter sind jetzt echt.
Standbilder hätten also eine Vielzahl von Daten, die auf die sichtbaren Pigmente gedruckt würden, die es Smart Tech ermöglichen würden, sie zu lesen und zusätzliche Merkmale auf dem Foto zu rendern. Das Foto kann auch eine eigene IP V.xx-Adresse und einen eigenen Online-Cloud-Speicher haben.
Smart Glasses würden also das Foto animieren oder spezielle Funktionen hinzufügen, wie aus dem Internet heruntergeladene Kommentare, Aufkleber oder andere Dinge. Ein Foto Ihrer Kinder beim Festfeuerwerk könnte das Feuerwerk auf der Rückseite animieren.
Intelligente Fotos sind jetzt wie gemeinsame Sammelalben oder Social-Media-Beiträge. Ein Besucher kann mit dem Foto verknüpfte Daten im Cloud-Speicher posten, die für ausgewählte Besucher sichtbar sein können. So haben die Fotos über dem Kamin jetzt einen eigenen Like-Zähler.
Sprach- und Videodaten können zum Zeitpunkt des Drehs oder später hinzugefügt werden. Tragbare Laserdrucker (fast alle Geräte haben sie jetzt) könnten unsichtbare Codes auf sensible Bereiche des Fotos brennen oder die Daten in den zugehörigen Cloud-Speicher zu diesem Foto hochladen.
Da es bereits Versuche gibt, Blinde durch Signale ans Gehirn sehend zu machen, halte ich es für durchaus möglich, dass es in 30 Jahren keine Fotos mehr gibt; es wird Visionen geben . Das Betrachten eines Fotos bedeutet, die aufgenommene Szene genau so zu sehen, wie die Person, die sie aufgenommen hat, sie gesehen hat. Dazu müssen „nur“ Signale vom Sehnerv aufgenommen und dann im Gehirn einer anderen Person abgespielt werden.
Immer mehr Megapixel-, vielleicht sogar Gigapixel-Kameras.
3D sicher und Modelle einzelner Objekte.
Das Spektrum wird weit über HDR hinausgehen, um möglichst alle Lichtformen abzudecken.
Die Kameras haben viele Verbesserungen wie Gesichtserkennung, super schwaches Licht, ohne dass eine Verschlusszeit von 5 Minuten erforderlich ist. Alle Funktionen, die wir heute haben, werden perfektioniert.
Tonnenweise neue Daten werden in EXIF, XMP oder wie auch immer das neue Ding heißen wird, eingebettet. Denken Sie an all die Sensoren in unseren Handys, noch mehr werden in unsere Kameras eingebaut.
Offensichtlich werden die Batterielebensdauer und die Speicherkapazitäten die Wachstumsrate begrenzen.
Sie werden wahrscheinlich einen AR-Bildschirm oder ein projiziertes extrapoliertes 3D-Bild haben. Zugegeben, das Original wird wahrscheinlich dem nahe kommen, was es heute ist. Ein flaches 2D-Bild, vielleicht mit höherer Auflösung, aber danach können wir alle zugehörigen Bilder und bekannten Umgebungsinformationen aufnehmen und ein High-Poly-Modell mit Texturen mit hoher Auflösung extrapolieren, die in den AR-Raum projiziert werden. Und das ist noch nicht alles, Sie können das Motiv wahrscheinlich bewegen, um es herumgehen usw., da das Bild, das Sie sehen, aus allen bekannten Bildern des Motivs, seiner Verwandten, der Umgebung, die Sie sind, extrapoliert wird Zugang haben, sowie ihr Verhalten und alle Physik-Engines, die in 3D-Kunst involviert sind ... Und hier ist die Sache, dies gilt auch für alle früheren Bilder, auf die Sie ebenfalls Zugriff haben.
Echographien von Baby.
Obwohl es sich bei der Technologie nicht um Licht an sich, sondern um Sonographie handelt, wird der beliebte Anlass, das Kind im Mutterleib "fotografieren" zu lassen, künftig keinen Besuch beim Sonographen mehr erfordern. https://en.m.wikipedia.org/wiki/File:3dultrasound_20_weeks.jpg
Sonographen werden auf Anfrage über handliche Echo-Technologie und die direkt in Ihr Smartphone integrierte Flavour-of-the-Day-App verfügbar sein.
Wie es bei aufstrebender Technologie oft üblich ist, werden die ersten Versuche Versionen mit niedriger "Auflösung" der Bilder sein, die Sie bei den Arztbesuchen erhalten, aber sobald sich Popularität und hohe Nachfrage zeigen, wird diese Technologie schnell weiterentwickelt und Echophotos werden alle aktuellen bei weitem überflügeln Ultraschallbilder.
Durch die Kombination traditioneller fotografischer Techniken und die Nutzung neuer Konzepte und der Ergebnisse der jüngsten medizinischen Forschung werden Wege entwickelt, wie Bilder auf verbesserte und nützliche Weise "gesehen" werden können - zum Beispiel durch die Anwendung dreidimensionaler Techniken wie Lithothane-Arbeit, mit jüngsten Entdeckungen der thermischen und mechanische Wandler ( https://www.nobelprize.org/prizes/medicine/2021/advanced-information/ ) – und möglicherweise durch Drucken mit einer anamorphotischen Projektion – könnte eine blinde oder sehbehinderte Person „lesen“ und „sehen“ und sich ein Bild machen durch Berührung.
Abgesehen vom Wechsel von Schwarzweiß zu Farbe haben sich Fotos seit ihrer Erstellung nicht allzu sehr verändert, nur die Technologie, mit der sie aufgenommen wurden, und das Medium, auf dem sie betrachtet werden.
Ich würde in Zukunft keinen allzu großen Unterschied zu den tatsächlichen Fotos selbst erwarten.
Dies führt zu:
KI-Möglichkeiten
eine Erweiterung von Stig Hemmers Antwort - eine Möglichkeit, ein kurzes Video zu "schleifen", damit es nahtlos oder natürlich erscheint. Auf diese Weise können Sie ein Foto machen, das eigentlich ein kurzes Video ist, das Ihrem Foto etwas Leben einhaucht.
„Verschönerung“ – all jene Menschen, die Fotos von sich selbst hassen – KI wird in der Lage sein, ihre Gesichter zu „reinigen“, damit sie schöner aussehen, oder die Beleuchtung anpassen, um den „Kamera fügt 10 Pfund“-Effekt loszuwerden.
Fotobearbeitung - dh kann automatisch erfolgen und natürlich erscheinen. Wenn Sie sich beispielsweise aus einem Foto herausnehmen möchten, kann die KI die Beleuchtung aufräumen, den Hintergrund hinter Ihnen ausfüllen und realistisch aussehen lassen.
Zoom and Enhance - Das oft an den Pranger gestellte Filmklischee! Kann in irgendeiner Form existieren. Ja, ich weiß, dass Sie keine "Informationen hinzufügen" können. Aber die KI kann entweder die fehlenden Details anständig schätzen oder Zusammensetzungen aus Millionen anderer Fotos (z. B. von demselben Bereich oder derselben Person) verwenden, um zu schätzen, was dort in einem einigermaßen realistischen Maße vorhanden sein sollte.
Ich denke, dass der Einsatz von KI zur Flexibilisierung von Bildern alltäglich werden wird. Wir haben bereits KI, die ein paar Bilder aufnehmen und daraus eine komplette 3D-Umgebung extrapolieren kann. Wir haben KI, die ein Bild aufnehmen und die Auflösung „verbessern“ kann, um mehr Details zu sehen.
Daher können Bilder, die in 30 Jahren aufgenommen wurden, in 3D-Welten umgewandelt oder weiter gezoomt werden, und das alles zusätzlich zu den verbesserten Sensoren wie Lichtfeldern oder höheren Auflösungen. KI kann verwendet werden, um die Daten von mehreren Sensoren zu fusionieren, z. B. einem Weitwinkel- und einem Zoomobjektiv, oder sie kann Daten im Laufe der Zeit integrieren, während die Kamera durch eine Szene bewegt wird. KI wird es wahrscheinlich einfacher machen, die perfekten Momente auszuwählen, sodass das Foto, das Sie veröffentlichen, genau den Moment enthält, in dem alle gelächelt und nicht geblinzelt haben (oder sogar mehrere Momente für jede Person in der Gruppe kombinieren) oder Ihnen automatisch die perfekte Aufnahme liefert eines Athleten, der den Ball fängt. Oder die KI könnte die Touristen entfernen, um nur die Touristenattraktion selbst zu zeigen.
Sie könnten sich von https://www.youtube.com/c/K%C3%A1rolyZsolnai inspirieren lassen – er deckt viele dieser Arten von KI ab, sobald sie zum ersten Mal veröffentlicht werden, also wählen Sie vielleicht etwas daraus und extrapolieren Sie es in die Zukunft .
Benutzer
Goufalit
Mindwin
Nolonar
Fredsbend
Chepner
Greg
Pelinore