Hacker News

ICE i CBP wiedziały, że aplikacja do rozpoznawania twarzy nie może zrobić tego, co twierdzi DHS

ICE i CBP wiedziały, że aplikacja do rozpoznawania twarzy nie może zrobić tego, co twierdzi DHS Ta eksploracja zagłębia się w znane, badając jego znaczenie — Mewayz Business OS.

5 min. przeczytaj

Mewayz Team

Editorial Team

Hacker News

ICE i CBP wiedziały, że aplikacja do rozpoznawania twarzy nie może zrobić tego, co twierdzi DHS

Wewnętrzne dokumenty ujawniają, że zarówno amerykańskie organy imigracyjne i celne (ICE), jak i służby celne i ochrony granic (CBP) były świadome, że kontrowersyjna aplikacja do rozpoznawania twarzy nie spełnia kryteriów wydajności publicznie promowanych przez Departament Bezpieczeństwa Wewnętrznego (DHS). Ta rosnąca rozbieżność w odpowiedzialności między twierdzeniami agencji rządowych na temat technologii nadzoru a tym, co faktycznie wynika z zapisów wewnętrznych, rodzi krytyczne pytania dotyczące przejrzystości, etyki zamówień publicznych i rzeczywistych ograniczeń systemów identyfikacji opartych na sztucznej inteligencji.

Co tak naprawdę ICE i CBP wiedziały o aplikacji do rozpoznawania twarzy?

Zgodnie z ustaleniami dochodzenia i korespondencją wewnętrzną uzyskaną w wyniku wniosków o rejestrację publiczną, urzędnicy zarówno ICE, jak i CBP otrzymali oceny wskazujące, że system rozpoznawania twarzy znacznie odbiegał od deklarowanych wskaźników dokładności – szczególnie w przypadku stosowania go w przypadku osób o ciemniejszej karnacji, kobiet i osób starszych. Pomimo tych ustaleń agencje kontynuowały wdrażanie tej technologii w ramach operacji granicznych i procedur egzekwowania prawa imigracyjnego.

Rozłączenie jest wyraźne. DHS publicznie promowało to narzędzie jako niezawodne i dokładne rozwiązanie do weryfikacji tożsamości. Jednak wewnętrznie agenci odnotowali liczbę błędów i awarie na krawędzi, które dyskwalifikowałyby oprogramowanie w ramach jakichkolwiek rygorystycznych standardów zamówień. Mimo to wdrażanie było kontynuowane, co wzbudziło poważne pytania dotyczące odpowiedzialności instytucjonalnej i pośpiechu w przyjmowaniu narzędzi sztucznej inteligencji bez odpowiedniej weryfikacji.

Dlaczego dokładność rozpoznawania twarzy ma znaczenie w kontekście egzekwowania prawa?

Błędy rozpoznawania twarzy w aplikacjach konsumenckich są niedogodnościami. W kontekście egzekwowania prawa i egzekwowania prawa imigracyjnego mogą one oznaczać bezprawne zatrzymanie, błędną identyfikację lub naruszenia praw obywatelskich z konsekwencjami zmieniającymi życie. Stawka nie może być wyższa i właśnie dlatego znane ograniczenia tego systemu sprawiają, że jego dalsze użytkowanie jest tak niepokojące.

Fałszywie pozytywne wyniki mogą spowodować, że niewinne osoby zostaną oznaczone, zatrzymane lub poddane inwazyjnemu przesłuchaniu w oparciu o wadliwe dopasowania algorytmiczne.

💡 CZY WIESZ?

Mewayz replaces 8+ business tools in one platform

CRM · Fakturowanie · HR · Projekty · Rezerwacje · eCommerce · POS · Analityka. Darmowy plan dostępny na zawsze.

Zacznij za darmo →

Odchylenie demograficzne w zbiorach danych szkoleniowych powoduje nieproporcjonalną błędną identyfikację osób rasy czarnej, rdzennej i kolorowej – co jest dobrze udokumentowaną przyczyną awarii komercyjnych systemów rozpoznawania twarzy.

Brak niezależnego audytu umożliwia dostawcom samocertyfikację twierdzeń o dokładności przy niewielkiej weryfikacji zewnętrznej, zanim agencje wdrożą narzędzia na dużą skalę.

Nieprzezroczystość we wdrażaniu oznacza, że ​​dotknięte osoby rzadko wiedzą, że zostały sprawdzone przez system algorytmiczny, nie mówiąc już o tym, że system miał ograniczenia dokładności.

Słabe ramy nadzoru pozostawiają niewiele mechanizmów prawnych umożliwiających kwestionowanie decyzji podejmowanych – choćby częściowo – w oparciu o technologię biometryczną.

„Najniebezpieczniejsza technologia to nie ta, która zawodzi w widoczny sposób – to taka, o której agencje wiedzą, że zawodzi, a mimo to ją wdrażają, ponieważ polityczna lub operacyjna zachęta do działania przewyższa obowiązek dokładności”.

W jaki sposób ujawnia to głębsze problemy z zamówieniami rządowymi na sztuczną inteligencję?

Przypadek ICE i CBP dotyczący rozpoznawania twarzy nie jest odosobnioną porażką — jest objawem systemowej dysfunkcji w sposobie, w jaki agencje rządowe oceniają, zamawiają i wdrażają narzędzia oparte na sztucznej inteligencji. Dostawcy często przedstawiają ambitne twierdzenia w procesie sprzedaży, agencjom brakuje wewnętrznych możliwości technicznych, aby niezależnie zweryfikować te twierdzenia, a po podpisaniu umowy bezwład organizacyjny zniechęca do uczciwej ponownej oceny, nawet jeśli dane dotyczące wyników mówią co innego.

Sytuację tę pogłębia tajny lub półtajny charakter wielu wdrożeń technologii związanych z egzekwowaniem prawa, co ogranicza dziennikarzom, organizacjom zajmującym się wolnościami obywatelskimi i społeczeństwu możliwość sprawdzenia, jak te narzędzia faktycznie sprawdzają się w terenie. Przejrzystość nie jest w tym kontekście jedynie biurokratycznym drobiazgiem – ona nią jest

Streamline Your Business with Mewayz

Mewayz brings 207 business modules into one platform — CRM, invoicing, project management, and more. Join 138,000+ users who simplified their workflow.

Start Free Today →

Wypróbuj Mewayz za Darmo

Kompleksowa platforma dla CRM, fakturowania, projektów, HR i więcej. Karta kredytowa nie jest wymagana.

Zacznij dziś zarządzać swoją firmą mądrzej.

Dołącz do 30,000+ firm. Plan darmowy na zawsze · Bez karty kredytowej.

Uznałeś to za przydatne? Udostępnij to.

Gotowy, aby wprowadzić to w życie?

Dołącz do 30,000+ firm korzystających z Mewayz. Darmowy plan forever — karta kredytowa nie jest wymagana.

Rozpocznij darmowy okres próbny →

Gotowy, by podjąć działanie?

Rozpocznij swój darmowy okres próbny Mewayz dziś

Platforma biznesowa wszystko w jednym. Karta kredytowa nie jest wymagana.

Zacznij za darmo →

14-dniowy darmowy okres próbny · Bez karty kredytowej · Anuluj w dowolnym momencie