
Georgian Bay - Sommerlandschaft
Ändern der Art und Weise, wie Fotos aufgenommen werden
In den letzten Jahren haben eine Reihe von Herstellern Kameras hergestellt, die Bilder mit höherer Auflösung mithilfe der sogenannten Sensor-Shift-Technologie erzeugen können. Diese Technologie wurde mit dem Aufkommen der IBIS (Body Image Stabilization) ermöglicht. Kameradesigner haben das IBIS verwendet, um die Bildauflösung unglaublich zu erhöhen oder die Farbinformationen für die aufgenommenen Bilder zu verbessern.
Es gibt eine Reihe von Namen für diese Technologie, einschließlich des hochauflösenden Modus, des Pixel-Shifting-Auflösungssystems, des Pixel-Shift-Multi-Shooting-Modus oder der allgemeineren Namen für Pixel-Shift / Sensor-Shift. Letztendlich sind jedoch alle Konzepte hinter dieser Technologie das gleiche. Mehrere Bilder derselben Ansicht werden so aufgenommen, dass die Bilder gestapelt und gemischt werden, um ein einziges, normalerweise großes Bild mit hoher Auflösung zu erstellen.
Diese neue Technologie hat Stärken und Schwächen. Wenn Sie wissen, wie sie funktioniert, können Sie selbst bessere Bilder erstellen, wenn Sie über eine Kamera verfügen, die dazu in der Lage ist.
HINWEIS: Da Websites Bilder mit niedrigerer Auflösung verwenden, wurden die in diesem Artikel verwendeten Bilder verkleinert und geändert, um die Unterschiede zwischen den hochauflösenden Bildern und der Standardausgabe der Kameras zu simulieren. Wenn Sie die Bilder vollständig betrachten, sehen die Bilder ähnlich aus, aber wenn Sie sich den Details in den Bildern nähern, werden Sie die Unterschiede erkennen.

Gerbera Gänseblümchen drinnen, reguläre Auflösung (20 MP) Olympus OMD EM 1 Mark II

Gerbera Gänseblümchen drinnen, hochauflösende (50MP) Olympus OMD EM 1 Mark II
Viele Ansätze für Sensor-Shift-Bilder
Die Sensor-Shift-Bilderfassung wurde von teuren Spezialkameras zu einer zunehmend verfügbaren Funktion für neuere, auflösungsorientierte Kameras umgebaut. Neben Hasselblads Monster H6D-400c (400 Megapixel-Bilder) gibt es heute Angebote von Olympus, Pentax, Sony und Panasonic.
Diese Versionen verwenden im Allgemeinen den gleichen konzeptionellen Ansatz, jedoch zu viel günstigeren Preisen.

Sensor-Shift-Bewegung
Wer nutzt Sensor-Shift?
Unabhängig vom Hersteller bleibt die grundlegende Aktion der Sensor-Shift-Bilderfassung gleich. Nehmen Sie mehrere Bilder auf, bewegen Sie jedoch den Kamerasensor für jedes Bild leicht, um mehr Bilddaten zu erfassen, und setzen Sie das Bild dann zusammen.
Durch Bewegen des Sensors werden die Bildfarbdaten verbessert, sodass mehr Details gelöst werden können, indem die inhärenten Probleme mit farbspezifischen Fotoseiten überwunden werden. Zu den Systemen, die diese Technologie verwenden, gehören Kameras wie die Olympus OM-D E-M1 Mark II (Micro Four Thirds), die Pentax K-1 Mark II DSLR, die Sony A7R III und die Panasonic Lumix DC-G9 (Micro) Vier Drittel), obwohl es andere von denselben Herstellern gibt.
Drei dieser Linien sind spiegellose Kameras, wobei die Pentax eine Erntesensor-DSLR ist. Es ist interessant festzustellen, dass die Panasonic / Olympus-Kameras einen Ansatz verfolgen und Pentax / Sony einen anderen Ansatz für dieselben Konzepte.
Die Olympus / Panasonic-Systeme verwenden einen Ansatz, der sehr große hochauflösende Bilder erzeugt, während die Pentax- und Sony-Systeme die Sensorverschiebung verwenden, um die Farbinformationen von Bildern gleicher Größe zu verbessern. Sowohl das Pentax- als auch das Sony-System ermöglichen auch die Trennung der einzelnen sensorverschobenen Bilder, während Olympus und Panasonic die gestapelten Bilder zu einem einzigen Foto zusammenfügen.

Die Olympus OMD EM5 Mark II verfügt über die Sensor-Shift-Technologie.
Wie funktioniert die Sensortechnologie?
Um zu verstehen, wie die Sensor-Shift-Technologie funktioniert, müssen Sie auch verstehen, wie ein Sensor im Allgemeinen in sehr kleinem Maßstab funktioniert. In den guten alten Zeiten der Filmfotografie verwendeten Kameras lichtempfindliche Filme, um Bilder aufzunehmen. Digitalkameras verwenden einen ganz anderen Ansatz, um Licht aufzunehmen.
Digitalkameras verwenden lichtempfindliche Fotodioden, um das auf den Sensor treffende Licht aufzuzeichnen. Bei den meisten Digitalkameras verfügt jede Fotodiode über einen bestimmten Farbfilter (rot, grün oder blau), der eine Fotoseite bildet. Diese Fotoseiten sind so angeordnet, dass das Licht gemischt werden kann, um die Farbe des auf den Sensor kommenden Bildes zu sehen.
Die roten, grünen und blauen Fotoseiten auf einem Sensor sind im Allgemeinen in einem bestimmten Muster angeordnet, das als Bayer-Array (a.k.a. Bayer-Matrix, Filter) bekannt ist. Es gibt auch andere Konfigurationen wie den Fuji X-Trans-Sensor (der bei mehreren Kameramodellen verwendet wird) oder Sigma, der einen Foveon-Sensor verwendet.
Bei einer Bayer-Anordnung gibt es doppelt so viele grüne Fotoseiten wie rote oder blaue, da das menschliche Sehen am besten darauf abgestimmt ist, Details in Grün aufzulösen. Diese Anordnung funktioniert im Allgemeinen gut, aber wenn Sie darüber nachdenken, wird auf einem Bild ein Farbpixel erstellt, indem diese Fotoseiten zusammengemischt werden.
Der Sensor weiß nicht, wie viel Rot sich an einer grünen oder einer blauen Sensorposition befindet, daher ist eine Interpolation erforderlich. Dies kann zu Artefakten in Fotos führen, wenn Sie genau hinschauen, und bedeutet, dass RAW-Bilder einen sehr leichten Weichzeichner haben. Alle RAW-Bilder müssen bei der Nachbearbeitung etwas geschärft werden (Grün, Rot und Blau für ein Pixel werden zusammengemischt).

Bayer-Muster von Fotoseiten
Statische Sensoren
In einer normalen Kamera ohne IBIS zeichnet jede Fotoseite nur das Licht einer Farbe an diesem einen Punkt auf, sodass die Daten, die sie aufzeichnet, technisch unvollständig sind. Es ist wie ein Eimer, der nur Licht von einer bestimmten Farbe sammelt. Eine Gruppe von hellen Eimern im Bayer-Muster wird verwendet, um ein einzelnes Pixel im digitalen Bild zu erstellen. Innerhalb dieses Pixels befinden sich jedoch zwei grüne Eimer, ein blauer und ein roter.
Um das Bild miteinander zu verschmelzen und eine einzelne Farbe in dieses eine Pixel einzufügen, werden die Signale aus dem Cluster von Fotodioden zusammen aufgelöst. Die gesammelten Daten werden über einen Entmosaikierungsalgorithmus entweder in der Kamera (JPEG.webp) oder auf einem Computer (aus einem RAW-Bild) interpoliert. Dieser Prozess weist Werte für alle drei Farben für jede Fotoseite basierend auf den von benachbarten Fotoseiten registrierten Sammelwerten zu .
Die resultierenden Farben werden dann als Pixelraster ausgegeben und ein digitales Foto erstellt. Dies ist teilweise der Grund, warum RAW-Bilder einen etwas weicheren Fokus haben und im Postproduktions-Workflow geschärft werden müssen.
Sensoren bewegen
IBIS bedeutet, dass sich die Sensoren jetzt ganz leicht bewegen, um sich an subtile Bewegungen einer Kamera anzupassen und das Bild stabil zu halten. Einige Hersteller behaupten, dass ihre Systeme in der Lage sind, die Kombination aus Sensor und / oder Linse für umgerechnet 6,5 Blenden zu stabilisieren.

Durch Bewegen des Sensors können alle Farbfotoseiten die Daten für jeden Ort auf dem Sensor aufzeichnen.
Diese Stabilisierung wird durch Mikroeinstellungen der Position des Sensors erreicht. Bei Sensor-Shift-Bildern werden dieselben Mikroeinstellungen verwendet, um jede Fotoseite dem Licht der Einzelbildaufnahme auszusetzen. Im Wesentlichen wird der Sensor so bewegt, dass er sich nicht auf externe Störungen einstellt, sondern dass jeder Teil eines Bildes Vollfarbinformationen enthält.
Fotoseiten eher als Pixel
Möglicherweise haben Sie den Begriff Fotoseiten anstelle von Pixeln bemerkt. Kameras werden häufig anhand ihrer Megapixel als Maß für ihr Auflösungsvermögen bewertet. Dies ist jedoch verwirrend, da Kameras nicht nur Pixel-Fotoseiten haben.
Pixel werden im Bild erzeugt, wenn die Daten vom Sensor verarbeitet werden. Sogar der Begriff "Pixelverschiebung", der manchmal verwendet wird, ist irreführend. Pixel bewegen sich nicht, es sind die Sensoren, auf denen sich Fotoseiten befinden, die sich bewegen.
Bei der Einzelbildaufnahme zeichnet jede Fotoseite Daten für rotes, grünes oder blaues Licht auf. Diese Daten werden von einem Computer interpoliert, sodass jedes Pixel in der resultierenden digitalen Fotografie einen Wert für alle drei Farben hat.
Schaltsensoren
Sensor-Shift-Kameras versuchen, die Abhängigkeit von Interpolation zu verringern, indem sie Farbdaten für Rot, Grün und Blau für jedes resultierende Pixel erfassen, indem sie den Sensor der Kamera physisch bewegen. Stellen Sie sich ein 2 × 2-Pixelquadrat vor, das aus einem digitalen Foto stammt.
Bei der herkömmlichen digitalen Erfassung mit einem Bayer-Array werden Daten von vier Fotoseiten aufgezeichnet: zwei grüne, eine blaue und eine rote. Technisch bedeutet dies, dass Daten für blaues und rotes Licht auf den grünen Fotoseiten, grüne Daten und Rot auf den blauen Fotoseiten und blau und grün auf den roten Fotoseiten fehlen. Um dieses Problem zu beheben, werden die fehlenden Farbwerte für jede Site während des Interpolationsprozesses ermittelt.
Aber was ist, wenn Sie nicht raten mussten? Was wäre, wenn Sie die tatsächliche Farbe (rot, blau und grün) für jede Fotoseite haben könnten? Dies ist das Konzept der Sensor-Shift-Technologie.

Ein Bild mit normaler Auflösung.
Tiefer tauchen
Betrachten Sie ein 2 × 2-Pixel-Quadrat auf einem digitalen Foto, das mithilfe der Pixel-Shift-Technologie erstellt wurde. Das erste Foto beginnt wie gewohnt mit Daten, die von den vier Fotoseiten aufgezeichnet wurden. Jetzt verschiebt die Kamera jedoch den Sensor, um die Fotoseiten zu bewegen, und nimmt das gleiche Bild erneut auf, jedoch mit einer anderen Fotoseite.
Wiederholen Sie diesen Vorgang, damit alle Fotoseiten für jeden exakten Punkt auf dem Sensor das gesamte Licht haben. Während dieses Vorgangs wurden Lichtdaten von vier Fotoseiten (zwei grüne, eine rote und eine blaue) für jedes Pixel erfasst, was zu besseren Farbwerten für jeden Ort und weniger Interpolationsbedarf führt (fundiertes Raten).

Ein hochauflösendes Bild bei gleicher ISO, Blende und Verschlusszeit.
Der Sony- und Pentax-Ansatz
Der Pixel Shift Multi Shooting-Modus von Sony und das Pixel Shifting Resolution System von Pentax arbeiten auf diese Weise. Es ist wichtig zu beachten, dass die Verwendung dieser Modi die Gesamtzahl der Pixel in Ihrem endgültigen Bild nicht erhöht. Die Abmessungen der resultierenden Dateien bleiben gleich, aber die Farbgenauigkeit und Detailgenauigkeit werden verbessert.
Sony und Pentax nehmen vier Bilder auf und verschieben eine vollständige Fotoseite pro Bild, um ein einzelnes Bild zu erstellen. Es geht wirklich einfach darum, die Farbinformationen im Bild zu verbessern.
Der Ansatz von Olympus und Panasonic
Der hochauflösende Modus von Panasonic- und Olympus-Kameras, die beide Micro Four Thirds-Sensoren verwenden, ist etwas differenzierter und kombiniert acht Belichtungen, die ½ Pixel voneinander entfernt sind. Im Gegensatz zu Sony und Pentax erhöht dies die Anzahl der Pixel im resultierenden Bild erheblich.
Von einem 20-Megapixel-Sensor erhalten Sie ein 50-80-Megapixel-RAW-Bild. Es gibt nur ein einziges Bild, auf das nicht auf die einzelnen Bilder einer Sequenz zugegriffen werden kann.
Was sind die Vorteile von Sensor-Shift?
Die Verwendung der Sensor-Shift-Technologie bietet mehrere Vorteile. Indem Sie mehrere Bilder aufnehmen, die Farbinformationen für jeden Standort der Fotosite kennen und die Auflösung erhöhen, erreichen Sie drei Hauptaufgaben. Sie verringern das Rauschen, reduzieren das Moiré und erhöhen die Gesamtauflösung der Bilder.
Rauschen und verbesserte Auflösung
Durch die Aufnahme mehrerer Bilder mit einer geringfügigen Änderung der Position des Sensors steigt die Auflösung des Bildes, aber auch die Farbinformationen in den Bildern. Dies ermöglicht ähnliche Bilder, um ein besseres Drilldown in das Bild mit weicheren Farben, weniger Rauschen und besseren Details zu ermöglichen.

Ein Bild mit normaler Auflösung.

Ein hochauflösendes Bild.

Wenn Sie das Bild auf die normale Auflösung zuschneiden, sehen Sie Rauschen wie Körnung und Farbabweichung.

Hier ist die gleiche Ernte bei der hochauflösenden Version, die Farbe und Details sind besser mit weniger Rauschen.
Weniger Moire
Moire ist das Auftreten von Rauschen oder Artefaktmustern, die in Bildern mit engen regelmäßigen Mustern auftreten. Neuere Sensoren haben in der Regel weniger Probleme mit Moire als in der Vergangenheit, werden jedoch in einigen Bildern weiterhin angezeigt.
Die Ursache des Moirés hängt in der Regel mit den aufgezeichneten engen Mustern zusammen, und die Kamera hat Probleme beim Auflösen des Musters, da sie Probleme mit den Fotoseiten des Sensors hat. Die Farbinformationen für die Fotoseiten Rot, Grün und Blau haben Probleme mit Kanten in diesen engen Mustern, da nicht alle Farben für einen einzelnen Standort aufgezeichnet werden.
Bei der Sensorverschiebung ist die gesamte Farbe für jeden Standort vorhanden, sodass das Moiré tendenziell verschwindet.

Bild mit normaler Auflösung.

Hochauflösendes Bild mit hervorgehobenem Zuschneidebereich

Der zugeschnittene Bereich auf dem Bild mit Standardauflösung - Rauschen tritt auf (die Kratzer auf dem Papier waren zuvor vorhanden).

Das Bild mit höherer Auflösung weist weniger Rauschen und mehr Details auf.
Warum also nicht für jedes Bild verwenden?
Der Hauptgrund ist, dass Sie mehrere Bilder einer einzelnen Szene aufnehmen müssen. Dies bedeutet, dass dies bei bewegten Motiven nicht gut funktioniert. Der Prozess erfordert mindestens das Vierfache der Belichtungszeit für die Einzelbildaufnahme. Dies führt zu vier Möglichkeiten für einen Teil Ihrer Komposition und / oder Ihrer Kamera, sich während der Bildaufnahme zu bewegen, wodurch die Bildqualität beeinträchtigt wird.
Solche Einschränkungen beschränken die Anwendung der Technologie auf Stillleben und (statische) Landschaftsfotografie. Jede Bewegung in der Szene, die erfasst wird, erzeugt einen verschwommenen oder pixeligen Bereich. Dies ist ein Problem für die Landschaftsfotografie, wenn sich Pflanzen oder Wolken im Wind bewegen sowie Bereiche, in denen fließendes Wasser vorhanden ist.
Dies bedeutet auch, dass Sie normalerweise sehr stabil sein und ein Stativ verwenden müssen, obwohl es einige klare Absichten der Hersteller gibt, Versionen zur Verfügung zu stellen, die Handaufnahmen der Kamera ermöglichen (Pentax verfügt über diese Funktion).

Hochauflösendes Bild auf einem Stativ.

Bewegungsartefakte sind bei näherer Betrachtung sichtbar.
Macken einiger Systeme
Da die Sensor-Shift-Technologie auf unterschiedliche Weise implementiert wurde und je nach verwendetem System, sind die Probleme etwas unterschiedlich. Das Hauptproblem ist, dass Sie im Allgemeinen ein Stativ benötigen, also keinen Lauf und keine Waffe.
Das Sony-System hat andere Einschränkungen, dass Sie das Bild erst sehen können, wenn Sie die vier separaten Bilder zusammen verarbeiten. Dies bedeutet, dass Sie Ihr aufgelöstes Bild auf der Kamera nicht überprüfen können. Aufgrund der hohen Pixelanzahl auf der A7R-Markierung III ist außerdem eine subtile Bewegung des Stativs auf dem resultierenden Bild besonders auffällig. Um die Bilder zu bearbeiten, müssen Sie außerdem eine proprietäre Sony-Software verwenden, um die Bilder zusammenzuführen.
Pentax hat einige interessante Funktionen. Die Verwendung der mit der Kamera gelieferten Softwareanwendung ermöglicht die Adressierung von Bewegungen mithilfe eines Algorithmus in der Software zum Entfernen von Bewegungsartefakten. Dies funktioniert besser als Software, die üblicherweise für Bildmanipulationen wie Adobe verwendet wird.
Das Olympus-System gibt es schon seit einiger Zeit und in der jüngsten Iteration des Olympus OMD EM1 Mark II werden bei jeder erkannten Bewegung die betroffenen Pixel durch Teile eines der einzelnen Bilder mit regulärer Auflösung in Bewegungsbereichen ersetzt. Dies führt zu einer ungleichmäßigen Auflösung, lässt das Bild jedoch für Dinge wie Wind besser aussehen. Es schränkt auch ein, insbesondere wenn viel Bewegung vorhanden ist. Oft sehen die Bilder etwas pixelig aus.

Bild eines Baumes mit Standardauflösung - alles ist scharf.

Ein hochauflösendes Bild desselben Baumes, aber es war windig … Der zugeschnittene Bereich wird in der gelben Box angezeigt.

Beschnittener Bereich erweitert - Die Windbewegung erzeugte einige Artefakte auf dem Bild.
Einschränkungen
Die größte Herausforderung bei der Erfassung von Bildern mit Sensorverschiebung besteht darin, Motive zu bewegen. Darüber hinaus kann der Versuch, einen Blitz mit einer Kamera mithilfe der Pixelverschiebungs-Bildaufnahme zu koppeln, durch die Geschwindigkeit der Bildaufnahme, Einschränkungen bei der Blitzwiedergabe und allgemeine Kompatibilitätsprobleme erschwert werden. Die Hersteller sind sich dieser Probleme bewusst und arbeiten daran, sie zu lösen.
Insgesamt wird die Technologie nur noch besser
Immer mehr Systeme verwenden Algorithmen, um diese Bilder mit höherer Auflösung zu erzeugen. Mit zunehmender Reife der Technologie werden die Implementierungen immer bessere Ergebnisse erzielen und möglicherweise mit Bewegungen und Handheld-Bedingungen umgehen können.
Der Vorteil für die Hersteller besteht darin, dass Bilder mit besserer Qualität erzeugt werden, ohne dass wirklich teure Sensoren mit hoher Pixeldichte (billiger) erforderlich sind. Die Vorteile für den Benutzer bestehen darin, dass die Bilder bessere Rausch- und Farbinformationen für bessere Endergebnisse aufweisen können.
Viel Spaß beim Suchen nach dem perfekten hochauflösenden Bild!