Reconocimiento facial en Zúrich
¿Aumento de la seguridad o inicio de la vigilancia masiva?
Crecí en un sistema en el que, incluso de niño, aprendías lo que podías decir y lo que era mejor no decir. Mis padres me decían a menudo: «Ten cuidado, eso no se lo puedes contar a nadie.» En aquel entonces, el Ministerio para la Seguridad del Estado, la Stasi, operaba el mayor aparato de vigilancia de la historia mundial. En 1989, alrededor de 280 000 personas trabajaban oficialmente en funciones relacionadas con la policía, además de aproximadamente tres millones de ciudadanos en funciones relacionadas con la seguridad. Si se sumaban todas estas fuerzas, la «densidad de seguridad» equivalía a un agente por aproximadamente cada cinco habitantes. El control no era una sensación, sino la vida cotidiana. Prestabas atención a quién estaba escuchando. No se preguntaba uno si estaba siendo vigilado. Uno lo sabía. Eso fue hace muchos años. Hoy vivo en una democracia, en un sistema de derechos, libertad de expresión y transparencia.
En los últimos días de noviembre de 2025, el Consejo Cantonal de Zúrich dio un paso decisivo: decidió que el reconocimiento facial automático en espacios públicos deberá permitirse en el futuro bajo ciertas condiciones. Esta decisión desencadenó de inmediato un intenso debate. Los defensores hablan de una oportunidad para aumentar la seguridad, por ejemplo en la búsqueda de personas buscadas, en casos de violencia en el centro de la ciudad o ante peligros inminentes en grandes eventos. Sin embargo, los críticos advierten de una peligrosa ruptura del dique: los partidos de izquierda y los defensores de la protección de datos hablan del peligro de una «vigilancia generalizada».
Sé cómo se siente cuando el Estado se acerca demasiado. Cuando uno se siente pequeño. Cuando no está claro si se puede hablar. Lo detesto hasta el día de hoy, y precisamente por eso es importante para mí que nunca vuelva a ocurrir.
Pero tan peligrosa como la desconfianza es la impotencia. Cuando los delitos quedan sin resolver. Cuando aumenta la violencia en los espacios públicos. Cuando la policía ya no puede seguir el ritmo. Entonces, las personas pierden la confianza en el Estado. En el contexto de este artículo, se explica la tecnología de reconocimiento facial utilizando como ejemplo la plataforma Vaidio AI Vision. No se trata solo del funcionamiento técnico, sino también de su uso y su utilidad.
Cuál es la situación inicial en Zúrich
En Zúrich, al igual que en muchas grandes ciudades, la policía se enfrenta cada día a un número creciente de delitos y a una falta de recursos. Las estadísticas policiales de criminalidad de 2024 muestran: Zúrich está cada vez más bajo presión. Solo en el área urbana se registraron más de 48.000 delitos, alrededor de un 4,5 % más que el año anterior. En todo el cantón de Zúrich se contabilizaron más de 110 000 delitos según el Código Penal (StGB).
La gran mayoría de todos los delitos corresponde a delitos contra la propiedad, más del 66 % de todos los casos. Esto incluye robo, allanamiento, fraude y daños a la propiedad. Pero precisamente aquí, la tasa de esclarecimiento es baja: dos de cada tres casos quedan sin resolver.
También se observa un aumento en el ámbito de la violencia. En 2024 se registraron más de 10 700 delitos violentos. Lo especialmente llamativo es que la mayoría de estos actos no ocurren en espacios privados, sino allí donde las personas se encuentran. El espacio público constituye el punto central: calles, plazas, aparcamientos, establecimientos de restauración, superficies comerciales, centros educativos o lugares de ocio son los escenarios de conflictos espontáneos y situaciones que se intensifican. Más de dos tercios de todos los actos de violencia en Zúrich ocurren en estas áreas, a menudo en cuestión de segundos y generalmente sin previo aviso. La llegada de la policía al lugar de los hechos casi siempre ocurre a posteriori, ya que la intervención preventiva es muy difícil. Un problema estructural agrava aún más la situación: en comparación con los Estados europeos, la densidad policial en Suiza está claramente por debajo del valor recomendado de 1 por cada 300 habitantes. Las estimaciones actuales para 2025 indican 1 policía por cada 477 habitantes. En comparación europea, Suiza es uno de los países con una densidad policial muy baja.
Un análisis adicional de las estadísticas muestra también un hallazgo decisivo: la criminalidad no se distribuye de manera uniforme entre la población. En 2024, 16 751 personas adultas fueron registradas por delitos. De ellos, casi la mitad cometió solo un único delito. La otra mitad, sin embargo, llamó la atención en múltiples ocasiones. Más del 50 % del trabajo de investigación correspondía, por tanto, a personas que cometieron dos, tres o incluso más delitos en el plazo de un solo año. Un pequeño grupo de reincidentes es desproporcionadamente activo y causa una parte considerable de la situación total. Esto deja claro que: no todas las personas son potencialmente sospechosas, sino un grupo relativamente pequeño y conocido que aparece repetidamente y consume fuertemente los recursos policiales.
De este conocimiento surge una perspectiva importante para cualquier debate sobre nuevas tecnologías. El reconocimiento facial no significaría que todas las personas tendrían que ser vigiladas o controladas. Sería más bien una herramienta para identificar con mayor rapidez a los reincidentes conocidos antes de que vuelvan a actuar.
Mitos comunes sobre el reconocimiento facial
Cuando se habla de IA y reconocimiento facial, a menudo surge de inmediato una imagen concreta en la mente: cámaras que lo ven todo, lo saben todo e identifican al instante a cualquier persona en la calle. Una tecnología que observa cada paso, evalúa cada movimiento y quizá incluso sabe más sobre nosotros que nosotros mismos. Solo esta idea es a menudo suficiente para provocar fuertes emociones. Fascinación por un lado, preocupación y desconfianza por el otro.
Los informes de los medios también moldean esta imagen: los escándalos y los posibles abusos pasan al primer plano y refuerzan el escepticismo. Retiradas destacadas y debates a nivel de la UE (campañas contra la biometría masiva) suelen generar dudas en lugar de confianza. En conjunto, en la percepción pública suele existir la imagen de una «IA que todo lo ve» sin privacidad.
En nuestra vida cotidiana, sin embargo, utilizamos el reconocimiento facial de forma completamente voluntaria, sin sentirnos perseguidos. Un ejemplo típico es desbloquear nuestro teléfono inteligente. Cuando miramos nuestro teléfono por la mañana y lo desbloqueamos con una mirada, no lo percibimos como vigilancia, sino como protección y comodidad. Utilizamos la misma tecnología únicamente en un entorno seguro y privado que controlamos nosotros mismos. Allí, el reconocimiento facial no parece amenazante, sino útil.
Por eso es precisamente necesario, antes de hablar de oportunidades o riesgos, comprender primero la tecnología. ¿Cómo «ve» una IA un rostro? ¿Qué reconoce realmente – y qué no?
¿Qué es el reconocimiento facial y cómo funciona?
El reconocimiento facial como el de Vaidio se basa en algoritmos de aprendizaje profundo. En este proceso, los rostros se detectan primero en la imagen de vídeo, se alinean y se transforman en vectores numéricos de características («embeddings»). Este proceso es típico de los sistemas modernos de reconocimiento facial: a partir de los datos de la imagen, una red neuronal genera extracciones automáticas de características que ofrecen descripciones robustas y semánticas de los rostros. A continuación, el sistema compara los rostros captados con una base de datos de plantillas conocidas. Si se detecta una coincidencia (basada en un umbral), se devuelve una identidad o una asignación de grupo o de rol.
Para comprender mejor cómo funciona el reconocimiento facial, ayuda observar dos situaciones diferentes. Imaginemos un lugar, por ejemplo una estación de tren o la entrada de un edificio. Una cámara graba a las personas que pasan. El software detrás de ello reconoce automáticamente que hay un rostro visible y comienza a analizarlo. Ahora todo depende de si la persona está almacenada en una base de datos o no.
Si la persona no está registrada en una base de datos, en realidad ocurre muy poco. El sistema detecta que hay un rostro en la imagen, crea una «huella facial» temporal, es decir, un patrón matemático basado en ciertos rasgos como la distancia entre los ojos o la forma de la barbilla, y luego lo descarta nuevamente. Para la IA, esta persona permanece anónima. No es reconocido, ni identificado, ni almacenado. La IA ve, por lo tanto, que hay una persona, pero no la conoce. Se podría decir: el rostro es solo una imagen neutra, sin nombre y sin significado.
Es diferente en el caso de una persona que ha sido registrada deliberadamente en una base de datos, por ejemplo porque figura en una lista de personas buscadas. Si esta persona aparece frente a la cámara, el software vuelve a analizar su rostro y crea una huella facial. Este se compara con los códigos almacenados en la base de datos. Si se encuentra una coincidencia, el sistema reconoce a la persona y puede activar una alarma de inmediato. Se podría decir: la IA la recuerda, no porque conozca a todas las personas, sino solo porque fue almacenada deliberadamente con anterioridad.
Cómo se llevan a cabo las investigaciones hoy en día
Primero deben asegurarse las grabaciones de vídeo de las cámaras cercanas y luego revisarse. A menudo se trata de horas o incluso días de material de vídeo, solo para averiguar cuándo aparece el agresor, adónde fue y si ya había estado en el lugar antes. Si hay varias cámaras, los perfiles de movimiento deben reconstruirse manualmente. Esto significa que los investigadores pasan días intentando averiguar si la persona vuelve a aparecer en determinados lugares. A menudo es necesario vigilar a los sospechosos, registrar sus movimientos y recopilar patrones de comportamiento. Este tipo de medidas requiere mucho personal y suele realizarse en segundo plano, a veces con éxito y otras veces sin resultados.
Cómo la videovigilancia basada en IA con reconocimiento facial cambia las investigaciones
Con una plataforma de análisis de vídeo basada en IA como Vaidio, todo este proceso de investigación cambia de forma fundamental. En cuanto hay material de vídeo disponible, ya sea procedente de cámaras públicas, sistemas privados o de una tienda, puede analizarse automáticamente y buscarse según determinadas características. El sistema detecta, por ejemplo, a una persona con capucha, estima el sexo y la edad aproximada, registra características de la ropa, accesorios llamativos como bolsos o mochilas y analiza los patrones de movimiento. Esta información no se limita a una sola cámara. Se correlacionan, si está autorizado, entre todas las cámaras conectadas. En lugar de revisar manualmente innumerables horas de grabaciones, el sistema ofrece respuestas a preguntas concretas: ¿Cuándo apareció esta persona por primera vez? ¿Se encontraba esta persona en el mismo lugar en días anteriores? ¿Se desplaza esta persona sola o aparece repetidamente en el entorno del mismo grupo de personas?
Si además se utiliza el reconocimiento facial, el procedimiento cambia aún más. En este caso, la huella facial generada previamente de una persona se compara con las entradas almacenadas en una base de datos. Si se detecta una coincidencia, esto no significa simplemente una pista, sino una referencia clara de ubicación: el sistema muestra cuándo y dónde se vio por última vez a una persona buscada, por ejemplo en una estación de tren, en el casco antiguo o cerca de la escena de un delito. De este modo, una secuencia de vídeo anónima se convierte en una pista concreta. La policía no solo sabe que la persona se desplazó, sino también dónde se encontraba, en qué dirección se dirigió y si había aparecido antes en otro lugar. Y todo ello en cuestión de segundos. Lo especial de ello: no solo se reduce drásticamente el tiempo de búsqueda. También cambia el enfoque de la investigación. Las observaciones ya no necesitan reconstruirse con esfuerzo, sino que pueden rastrearse. Los indicios de sospecha ya no se descubren por casualidad, sino que se hacen visibles. En lugar de comenzar las investigaciones desde cero, pueden iniciarse donde antes solo se llegaba después de varios días.
Una mirada breve en la dirección equivocada
Una objeción frecuente es: «Ya tenemos todos los datos biométricos en los pasaportes, así que una base de datos así ya existe.»
Sí, es cierto: en Suiza, los datos biométricos de los pasaportes se almacenan de forma centralizada en el Sistema de Información de Documentos de Identidad (ISA). Incluye los datos personales, la foto del pasaporte y las huellas dactilares, exclusivamente para fines administrativos. El propósito está claramente limitado: identificación en procedimientos oficiales, asistencia en caso de denuncias de pérdida, protección contra el fraude de identidad. Solo tienen acceso las autoridades autorizadas, como Fedpol, las autoridades cantonales o el cuerpo de guardia fronteriza. Pero lo decisivo es lo que el ISA no es: el ISA no es un sistema de vigilancia, no es una base de datos en tiempo real para cámaras, no es un instrumento que identifique automáticamente rostros en espacios públicos. Pero sería solo una mirada a medias en la dirección equivocada si uno se quedara ahí. Teóricamente, podría crearse una base de datos nacional de rostros; técnicamente, esto sería posible. Pero para ello, millones de registros biométricos tendrían que recopilarse, validarse y estar disponibles en tiempo real. Pero para ello, millones de registros biométricos tendrían que recopilarse, validarse y estar disponibles en tiempo real.
Tales sistemas existen realmente. En países como China, los centros de datos forman parte de la infraestructura estatal y están conectados a sistemas de cámaras de cobertura nacional. Cuando miramos a China, vemos adónde puede conducir un desarrollo de este tipo. Allí, los grandes sistemas de vigilancia urbana están conectados directamente a bases de datos biométricas gestionadas de forma centralizada. Las cámaras están diseñadas para el reconocimiento en tiempo real, y los movimientos en los espacios públicos pueden asignarse automáticamente a perfiles personales. El reconocimiento facial allí forma parte de una infraestructura estatal integral que se utiliza no solo para la seguridad, sino también para la administración, el control de acceso e incluso, en parte, para sistemas de evaluación social. Este modelo se basa en otros fundamentos jurídicos y sociales, en una comprensión del Estado y del ciudadano que no es compatible con los principios europeos de protección de datos y libertad, y que, con suerte, nunca lo será en el futuro.
Es nuestra responsabilidad garantizar que esto no vuelva a suceder nunca. No en la responsabilidad de ningún software, sino en la fortaleza de nuestros principios del Estado de derecho. En nuestras leyes, en nuestra transparencia, en la obligación de justificar y en el derecho a oponerse. La democracia no es algo que se alcanza una vez y luego se mantiene. Se defiende cada día, especialmente allí donde surgen nuevas tecnologías. Si definimos límites claros, incorporamos mecanismos de protección y mantenemos el control en manos de las personas, el reconocimiento facial puede formar parte de una arquitectura de seguridad moderna. No como una herramienta de poder, sino como un servicio a la sociedad.
Conclusión – Alivio, no control
Con el reconocimiento facial moderno, no se trata de capturar a todas las personas, sino de reconocer rápidamente a unos pocos individuos conocidos que aparecen repetidamente. Los datos sobre criminalidad muestran que no sería necesario centrarse en la población en general, sino en una pequeña parte de reincidentes. Aquí es precisamente donde puede ayudar el análisis de vídeo inteligente.
Esa es una diferencia crucial. El término «vigilancia masiva» aparece a menudo en los debates, pero técnica y legalmente, un reconocimiento facial generalizado no sería ni sensato, ni práctico, ni compatible con los valores democráticos. Desperdiciaría recursos, generaría volúmenes de datos difíciles de procesar y, en última instancia, perdería de vista lo que realmente es relevante.
En su lugar, un sistema como Vaidio persigue un objetivo claro: preparar la información de manera que los investigadores puedan empezar allí donde realmente importa. Representa una ganancia de tiempo para los momentos en los que cada minuto cuenta.
La seguridad moderna no significa: verlo todo.
La seguridad moderna significa: reconocer lo correcto.
Fuentes:
Autores:
Anne-Katrin Michelmann
Fecha: 27/11/2025