logo
Bericht versturen
Wuhan Homsh Technology Co.,Ltd.
producten
Nieuws
Huis > Nieuws >
Bedrijfnieuws ongeveer Homsh's baanbrekende doorbraak: ViT+ArcFace behaalt 0,29% EER in Iris Recognition
Evenementen
Contacten
Contacten: Mr. Kelvin Yi
Contact nu
Post ons

Homsh's baanbrekende doorbraak: ViT+ArcFace behaalt 0,29% EER in Iris Recognition

2026-04-01
Latest company news about Homsh's baanbrekende doorbraak: ViT+ArcFace behaalt 0,29% EER in Iris Recognition

      Homsh's baanbrekende doorbraak: ViT+ArcFace

      Nauwkeurigheid van irisscanners bereikt wereldwijd topniveau
      Met een Equal Error Rate (EER) van slechts 0,29% en ROC AUC die de theoretische limiet benadert —
      We hebben de grenzen van irisscanners opnieuw gedefinieerd met Vision Transformer
laatste bedrijfsnieuws over Homsh's baanbrekende doorbraak: ViT+ArcFace behaalt 0,29% EER in Iris Recognition  0
▲ Vision Transformer herdefinieert het onderliggende paradigma van irisherkenning

I. Dit keer is het niet zomaar vooruitgang — het is een paradigmaverschuiving

      Als je een ingenieur die twintig jaar in irisscanners heeft gewerkt vraagt: "Wat is het moeilijkste probleem dat je ooit hebt aangepakt?"
      Hij zal waarschijnlijk even pauzeren en dan zeggen: "Het Rubberen Blad."
      Sinds John Daugman in 1993 het IrisCode-algoritme voorstelde, is het "Rubber Blad uitvouwen"-proces als een bezwering die in het DNA van irisscanners wereldwijd is gegrift. Het uitvouwen van de circulaire iris tot een rechthoekig beeld, en vervolgens texturen extraheren met Gabor-filters... deze workflow wordt al drie decennia gebruikt, en niemand stelde het ter discussie.
      Totdat wij besloten het weg te gooien.

II. Waarom werkte het Rubberen Blad niet meer?

      Vision Transformer (kortweg ViT) is een van de meest oogverblindende technologische doorbraken op het gebied van deep learning in de afgelopen drie jaar. Het snijdt een afbeelding in een aantal "patches" van 16x16, gebruikt het self-attention mechanisme van taalmodellen om de globale structuur van de afbeelding te begrijpen, en presteert beter dan de convolutionele neurale netwerken (CNN's) die jarenlang domineerden in meerdere top-tier visuele taken.
      Toen we ViT voor het eerst probeerden toe te passen op irisscanners, waren de eerste resultaten teleurstellend: de Equal Error Rate (EER) was maar liefst 4,65%, ver onder de verwachtingen.
      Het team identificeerde snel de hoofdoorzaak: het Rubberen Blad "vlakt" de 64x512 pixel ringvormige iris uit tot een rechthoek, die vervolgens wordt geschaald naar de 224x224 invoer die vereist is door ViT — een 3,5x verticale rek en 2,3x horizontale compressie. De natuurlijke radiale/omtrek textuurstructuur van de iris werd ernstig vervormd, waardoor het voor het patch-attention mechanisme van ViT onmogelijk werd om de semantiek daarbinnen waar te nemen.
      Met andere woorden: we voerden het slimste model op de verkeerde manier aan.
      De oplossing klinkt eenvoudig, maar vereiste de moed om conventies te doorbreken — het Rubberen Blad opgeven en overschakelen op ROI cirkelvormige uitsnijding: met het centrum van de iris als oorsprong, snijd een vierkant gebied (2,5x de straal) uit om de natuurlijke ruimtelijke symmetrie van de iris te behouden, en pas het vervolgens direct aan naar 224x224 en voer het in ViT. Op deze manier kan elke 16x16 patch de authentieke, onvervormde iristextuur waarnemen.

III. Belangrijke statistieken: EER = 0,29%, ROC AUC = 0,9999

Het veranderen van deze enkele voorverwerkingsstap zorgde voor een wereld van verschil:
Oplossing EER Opmerkingen
Ronde 1: ViT + Rubberen Blad 4,65% Traditionele workflow
Ronde 2: CNN + Rubberen Blad 2,80% Backbone vervanging met beperkte verbetering
Ronde 3: ViT + ROI Uitsnijding ~0,12%* Cruciale doorbraak
Finale Versie: ViT-S/16 + ROI + Regularisatie 0,29% Productieklare oplossing

*Ronde 3 resultaten zijn niet onderworpen aan rigoureuze statistische verificatie en bevatten optimistische bias.

      Het definitieve vrijgegeven systeem maakt gebruik van ViT-S/16 (22,1M parameters) + ArcFace hoekige margeverlies, getraind op een fusie van 8 openbare datasets (een totaal van 4.480 identiteiten / 67.704 afbeeldingen). Na rigoureuze statistische verificatie zijn de resultaten als volgt:

      EER = 0,29% (Equal Error Rate)

      ● 95% Betrouwbaarheidsinterval: [0,21%, 0,40%] (200 Bootstrap resampling rondes)

      ● ROC AUC = 0,9999 (bijna perfecte score)

      ● Gemiddelde genuine paar gelijkenis: 0,8742 (hoge consistentie voor dezelfde persoon)

      ● Gemiddelde impostor paar gelijkenis: 0,0450 (volledige kenmerkenscheiding voor verschillende personen)

      ● Bij FRR=1%, FAR = 0,00% (nul valse herkenning bij hoge beveiligingswerkingspunten)

laatste bedrijfsnieuws over Homsh's baanbrekende doorbraak: ViT+ArcFace behaalt 0,29% EER in Iris Recognition  1
▲ ROC Curve (AUC=0,9999) en Genuine/Impostor Score Verdeling — Twee Piekken Volledig Gescheiden

IV. Trainingsdata: Niet Alleen Groot, Maar Divers

Deze studie fuseerde 8 openbare datasets, waaronder de twee meest uitdagende scenario's in de branche:

Tweelingdata (CASIA-Iris-Twins)

      Irisdata van 200 tweelingparen — zelfs met bijna identieke genen zijn de iristexturen volledig verschillend. Dit is de "ultieme test" om het onderscheidend vermogen van het algoritme te verifiëren.

Zichtbare Licht Onbeperkte Scenario's (UBIRIS.v2)

      518 identiteiten met meer dan 11.000 afbeeldingen, vastgelegd onder natuurlijk licht met bewegingsonscherpte, onscherpe vervorming en variaties in verlichting — dit is de dataset die het dichtst bij real-world implementatiescenario's ligt.
      Training werd voltooid op een Apple Silicon M2 Ultra (Mac Studio) in ongeveer 12,3 uur (90 trainingsepochen), met een piek inferentielatentie van slechts ~35ms (inclusief ROI uitsnijding en kenmerkextractie).

V. Horizontale Vergelijking met Top Industrie Werk

Methode Backbone Voorbewerking EER
Daugman IrisCode Gabor Rubber Blad ~0,10% (Gecontroleerde Omgeving)
UniqueNet (2016) Siamese CNN Rubber Blad 0,18%
IrisFormer (2023) ViT-B/16 Rubber Blad 0,22%
PolyIRIS (2021) Multi-scale CNN Rubber Blad (Enkele Dataset)
Homsh ViT+ArcFace (Deze Release) ViT-S/16 ROI Uitsnijding 0,29% (8 Datasets)

laatste bedrijfsnieuws over Homsh's baanbrekende doorbraak: ViT+ArcFace behaalt 0,29% EER in Iris Recognition  2
▲ Van 4,65% naar 0,29% EER: Het Technologische Evolutiepad van Vier Ronden van Iteratie

VI. Volgende Stappen

1. Cross-Dataset Onafhankelijke Evaluatie
      Blinde tests op de IIT Delhi dataset die niet bij de training betrokken was om de real-world generalisatievermogen te verifiëren.
2. Integratie van Liveness Detectie
      Combineer multi-frame flash respons of textuuranalyse om te verdedigen tegen foto-afspeelaanvallen en bouw een compleet anti-spoofing systeem.
3. Medium en Lange Afstand Iris Herkenning
      Introduceer medium-afstand (3m) data om uit te breiden naar scenario's met grotere opnameafstanden — de volgende blauwe oceaan voor commerciële implementatie.
4. Lichtgewicht en Edge-Side Implementatie
      Distilleer het ViT-S/16 model naar <5M parameters om aan te passen aan resource-beperkte edge-apparaten (NPU/FPGA).

Conclusie: Een Dertigjarige Conventie Verdient Heroverweging

      Daugman's Rubberen Blad was de optimale oplossing van zijn tijd. Maar de essentie van technologie is dit: wanneer betere tools verschijnen, moet het oude paradigma plaatsmaken.
      Vision Transformer heeft de onderliggende logica van beeldherkenning veranderd. Door vier rondes van experimenten en vier maanden van exploratie hebben we de juiste manier gevonden voor ViT om zijn potentieel in irisscanners echt te ontsluiten — niet om ViT aan te passen aan de oude workflow, maar om een nieuw voorverwerkingsparadigma te ontwerpen dat is afgestemd op ViT.
      Een EER van 0,29% is slechts een getal, maar ook een verklaring:
      Iris herkenning is het Transformer-tijdperk binnengegaan, en Homsh staat aan de startlijn.

Over Homsh

      WuHan Homsh Technology Co., Ltd. (HOMSH), opgericht in 2011, is een van de weinige hightechbedrijven ter wereld die onafhankelijke intellectuele eigendomsrechten bezit voor kernalgoritmen en chips voor irisscanners. Zijn kern Phaselirs™-algoritme en Qianxin Series FPGA/ASIC intelligente chips voor irisscanners worden veel gebruikt in financiële inning, douaneafhandeling, uitgifte van overheidsdocumenten, militaire beveiliging en andere gebieden.