7Jul

Was ist der visuelle Kern des Pixel 2?

Das Google Pixel 2 verfügt über eine der besten Kameras, die Sie derzeit auf einem Smartphone erhalten können. Aber im Allgemeinen gelten diese Bewertungen der "besten Kamera" nur für die serienmäßige Kamera-App. Google ändert dies dank des "Pixel Visual Core" - eines speziellen Bildverarbeitungschips. Aber was macht dieser Chip?

Lassen Sie uns zuerst über HDR

sprechen Um zu verstehen, warum der Visual Core wichtig ist, müssen Sie etwas über High Dynamic Range-Fotografie( kurz HDR) verstehen. Grundsätzlich hilft HDR dabei, die Beleuchtung eines Fotos auszugleichen und es natürlicher erscheinen zu lassen - dunkle Farben sind nicht zu dunkel und die Lichter sind nicht zu hell.

Dies ist meistens ein Problem in einigen Situationen: wenn der Hintergrund hell ist und der Vordergrund dunkel ist - wie ein Familienfoto mit hellem Sonnenschein - oder in Situationen mit wenig Licht. HDR( oder wie Google es auf dem Handy, "HDR +") ist auf Google-Handys verfügbar, so weit zurück wie das Nexus 5, um zu helfen, dies zu bekämpfen, so dass es ein Teil der Google Kamera seit einer Weile ist.

Dies ist wichtig zu beachten, da HDR zwar kein neues Feature für das Pixel 2 ist, seine Verfügbarkeit jedoch nicht länger auf die integrierte Kamera-App beschränkt ist. Das ist der Grund, warum der Visual Core existiert: App-Entwicklern von Drittanbietern ist es einfach möglich, die Leistungsfähigkeit von HDR in ihren Anwendungen zu nutzen, indem sie einfach die Android Camera API verwenden.

Okay, also was ist der visuelle Kern?

Kurz gesagt, der Visual Core ist ein speziell entwickelter Prozessor, der ausschließlich im Pixel 2 und im Pixel 2 XL zu finden ist. Es wurde von Google in Zusammenarbeit mit Intel entwickelt, mit dem Ziel, die Bildverarbeitungsarbeit in den Telefonen für andere Kameraanwendungen als die Standardeinstellungen zu übernehmen.

Um es noch einfacher zu sagen, ermöglicht es Apps von Drittanbietern - wie Instagram und Facebook -, die Vorteile der gleichen HDR-Funktion zu nutzen, die in der integrierten Google Kamera-App seit einigen Jahren verfügbar ist. Angenommen, ein App-Entwickler verwendet die Android-Kamera-API, können diese Drittanbieter-Apps jetzt die gleichen hochwertigen Bilder wie die Aktien-App erhalten. Es ist toll.

Der Grund, warum nun ist, liegt daran, dass der Pixel Visual Core mit dem Start von Pixel 2-Google deaktiviert wurde, das gerade in dem Android 8.1-Update aktiviert wurde, das derzeit auf Pixel 2-Geräten läuft. Wenn Sie es nicht auf Ihrem Gerät haben, machen Sie sich keine Sorgen - das werden Sie. Alternativ können Sie es entweder mit den Werksbildern oder dem ADB-Sideload selbst flashen.

Der Pixel Visual Core erhöht auch die Geschwindigkeit der HDR-Verarbeitung erheblich - bis zu fünf Mal schneller als die Bildverarbeitung auf dem Snapdragon 835-Prozessor von Pixel 2.Gleichzeitig ist es auch effizienter und verbraucht nur ein Zehntel der normalen Energie des Standard-Bildprozessors. So erweitert es nicht nur die Funktionalität, es geht auch effizienter und schneller.

Und es geht sogar darüber hinaus - oder zumindest wird es .Zwar ist der Visual Core derzeit auf Anwendungen von Drittanbietern beschränkt, doch ist der Visual Core ein programmierbarer Chip, so dass es wirklich nichts gibt, was ihn davon abhält, für andere Aufgaben verwendet zu werden. Das ist natürlich beabsichtigt. Google wollte, dass dieser Chip zukunftssicher ist, damit er mit dem Android-Ökosystem wachsen kann. Nicht nur für Google, sondern für Android-Entwickler im Allgemeinen. Tatsächlich sagt Google, dass es bereits an den "nächsten Anwendungen" arbeitet, die den Visual Core verwenden werden.

Vorerst ist dies jedoch ein Schritt in die richtige Richtung. Das Öffnen von HDR für Anwendungen von Drittanbietern auf der bereits großen Kamera des Pixels ist ein Gewinn für alle. Wenn Sie auf der Suche nach einigen guten Beispielen für den Visual Core bei der Arbeit sind, hat Google in diesem Blogbeitrag einige hervorragende Beispiele.