BERLIN, 18. August 2023 — WiMi Hologram Cloud Inc. (NASDAQ: WIMI) (“WiMi” oder das “Unternehmen”), ein führender globaler Anbieter von Hologram-Augmented-Reality-(“AR”)-Technologie, gab heute bekannt, dass es eine auf Mask R-CNN basierende Technik zur intelligenten Extraktion von CSOs (Objekten im Merkmalsraum) und deren Referenzpunkten entwickelt hat, was einen Durchbruch im Bereich der Hochauflösungs-Bildverarbeitung und -abgleich darstellt. Die Technik nutzt die neuesten Fortschritte im Bereich Deep Learning und Computer Vision, um eine effiziente und genaue Lösung für den automatischen Bildabgleich und die Ziellokalisierung zu bieten.
Die Hochauflösungs-Bildverarbeitung und -abgleich sind ein wichtiger Forschungsbereich im Bereich der Computer Vision, aber der automatische Abgleich stieß bisher auf große Herausforderungen aufgrund lokaler Verzerrungen in Bildern und Unterschieden in den Lichtverhältnissen. Frühere Methoden waren oft durch die Rechenkomplexität und die Abhängigkeit von lokalen Merkmalen begrenzt, was eine genaue Ergebniserzielung erschwerte. WiMis Technik kann zur Extraktion von CSOs und deren Referenzpunkten in Bildern verwendet werden. Mit dieser Methode können die CSOs automatisch ermittelt und genaue Lokalisierungsinformationen für den anschließenden Bildabgleichsprozess bereitgestellt werden.
WiMis Forschungs- und Entwicklungsteam gelang es, diese Herausforderung zu lösen, indem das Mask R-CNN-Modell eingeführt wurde, ein Modell-Erweiterung auf Basis von Faster R-CNN, das häufig für die Zielerkennung und Instanzsegmentierung verwendet wird. Das Modell ist einzigartig darin, dass es gleichzeitig die Bounding Box, die Kategorie, die Maske und die Schlüsselpunkte eines Ziels vorhersagen kann und so umfassende Informationen für Bildverarbeitungsaufgaben bereitstellt.
In dieser neuen Technik trainiert WiMi zunächst ein großes Datenvolumen an Hochauflösungs-Fernerkundungsbildern, um das Mask R-CNN-Modell zu trainieren. Durch das Training ist das Modell in der Lage, die Merkmale unterschiedlicher Zielinstanzen in Bildern zu erlernen und deren Bounding Boxes, Kategorien, Masken und Schlüsselpunkte genau vorherzusagen. Auf Basis des trainierten Mask R-CNN-Modells schlägt das Technik-Team weiterhin den CSO-Begriff und die Referenzpunkte-Methode vor. CSO bezieht sich auf Zielinstanzen mit ausgeprägten Merkmalen, die durch Festlegung von Schwellenwerten oder Regeln intelligent gefiltert werden können. Referenzpunkte werden hingegen von jedem CSO durch einen Mask-Predictor und einen Schlüsselpunkte-Predictor extrahiert und dienen der Lokalisierung wichtiger Merkmalspunkte der Zielinstanzen.