OPENLANE, Inc. kündigte die Einführung von Visual Boost AI an, einer neuen Einblendung zur Erkennung von Schäden für jedes vom Händler zugelassene Fahrzeug auf dem US-Marktplatz von OPENLANE. Die KI-gestützte Technologie ergänzt die Fahrzeuginspektionsdaten, indem sie erkannte äußere Schäden direkt auf den Fotos im Zustandsbericht (CR) hervorhebt. So können Kaufinteressenten potenzielle Mängel schneller und einfacher lokalisieren und bewerten, bevor sie eine Kaufentscheidung treffen. Visual Boost AI ist jetzt für alle von Händlern signierten Fahrzeuge auf dem U-Marktplatz von OPENLANE verfügbar und nutzt künstliche Intelligenz und Computer-Vision-Technologie, um eine virtuelle Einblendung aller festgestellten äußeren Schäden zu liefern.

Die Overlays sind mit pinkfarbenen Highlights versehen, die erkannte Schäden wie Hagel, Lackabplatzungen, angebrachte Verkleidungen, kaputte Scheinwerfer, Rost, Kratzer, Dellen und Risse hervorheben. Käufer können die Overlays innerhalb des Zustandsberichts für jedes Fahrzeug, das sie sich ansehen, ein- oder ausschalten. So können sie die in der Fahrzeugbeschreibung erfassten Daten schneller und genauer interpretieren und letztendlich intelligentere und profitablere Biet- und Kaufentscheidungen treffen. Visual Boost AI wurde in Zusammenarbeit mit der Click-Ins Visual Intelligence-Plattform für Fahrzeuginspektionen entwickelt und erweitert das Portfolio des Unternehmens an mobiler künstlicher Intelligenz für Schadenserkennung und Fahrzeuginspektionen.

OPENLANEs Netzwerk unabhängiger Fahrzeuginspektoren scannt das Fahrzeug mit der Kamera ihres Smartphones als Teil ihres regulären Inspektionsprozesses. Die Technologie generiert automatisch KI-erkannte Schadensüberlagerungen für jedes der acht Standard-CR-Bilder, die das Fahrzeug in aufeinanderfolgenden 45-Grad-Winkeln zeigen, die der Inspektor dann validiert und abgleicht. Der gesamte Prozess dauert weniger als eine Minute und trägt dazu bei, das Vertrauen von Käufern und Verkäufern zu stärken und einen lebendigeren Markt zu fördern.