fbpx
Saltar al contenido

La gran vergüenza de Huawei: ayudó al régimen chino a perseguir minorías raciales

Read in English

[Read in English]

En el ámbito tecnológico la noticia más comentada es una: el apoyo de Huawei —mediante un poderoso software de reconocimiento facial—, al régimen comunista chino para perseguir a la minoría racial uigur.

Para poner en contexto, desde hace varias décadas, el Partido Comunista Chino lleva adelante una feroz persecución contra los miembros de la comunidad uigur.

El año pasado, la BBC publicó un artículo titulado “Los miles de niños uigures musulmanes a los que China separa de sus familias”. En la pieza se reseña: “China está deliberadamente separando a niños musulmanes de sus familias, e impidiéndoles hablar su idioma y practicar su religión en la región occidental de Sinkiang”.

“Registros muestran que, solo en una ciudad, más de 400 niños han perdido no a uno sino a dos de sus progenitores que han acabado o en un campamento o en una prisión”, y eso es, tan solo, la punta del iceberg en relación a la persecución que el régimen chino ha llevado adelante contra los uigures.

Huawei colabora con la persecución uigur

De acuerdo con el portal de noticias Infobae:El gigante tecnológico chino Huawei ha probado un software de reconocimiento facial que podría enviar «alarmas uigures» automatizadas a las autoridades gubernamentales cuando sus sistemas de cámaras identifiquen a miembros del grupo minoritario oprimido, según un documento interno que proporciona más detalles sobre el régimen de vigilancia de inteligencia artificial de China”.

Esta situación ha sido probada por un documento firmado por representantes de Huawei, un hallazgo de la organización de investigación IPVM, compartido de forma exclusiva por The Washington Post.

El documento “muestra que la empresa de telecomunicaciones trabajó en 2018 con la empresa de reconocimiento facial Megvii para probar un sistema de cámaras de inteligencia artificial que podía escanear rostros en una multitud y estime la edad, el sexo y la etnia de cada persona”, reseña el portal argentino.

La noticia es muy reveladora —y preocupante—, pues los detalles indican que, si el sistema desarrollado por Megvii y probado por Huawei detectaba o reconocía un rostro de algún miembro de la minoría racial musulmana —siempre de acuerdo con el informe— se activaba una “alarma uigur” y esto podía llegar a la policía china.

El documento, que fue encontrado en el website de Huawei, fue suprimido poco después de que The Post e IPVM solicitaran comentarios a las empresas involucradas.

Por supuesto, la situación es inédita y debería generar una preocupación global. Si bien los activistas de derechos humanos han denunciado que esta tecnología, en los últimos años, ha ganado espacios dentro de los departamentos de policía de China, ahora se confirma que el mayor fabricante de telecomunicaciones ha probado este desarrollo tecnológico.

Xi China
Xi Jinping, líder del régimen chino. (Archivo)

El fundador de IPVM —la empresa de investigación con sede en Pensilvania que detectó el documento compartido con The Post—; John Honovich, mencionó que esto demostraba cuán “aterradora” y “totalmente normalizada” se ha vuelto este tipo de tecnología discriminatoria.

“Esta no es una empresa aislada. Esto es sistemático”, exclamó Honovich. “Se pensó mucho en asegurarse de que esta ‘alarma uigur’ funcionara”.

Según el propio The Washington Post “Huawei y Megvii han anunciado tres sistemas de vigilancia que utilizan la tecnología de ambas empresas en los últimos dos años”. Pero el periódico de DC no pudo confirmar, al menos de inmediato, si el sistema que trae la “alarma uigur” era uno de los que está en venta en la actualidad.

El diario afirmó que las empresas, Huawei y Megvii, reconocieron que el documento es fidedigno.

Luego de que esta historia viera luz, un portavoz de Huawei, Glenn Schloss, explicó que el informe “es simplemente una prueba y que no ha tenido una aplicación en el mundo real. Huawei solo suministra productos de uso general para este tipo de pruebas. No proporcionamos algoritmos o aplicaciones personalizados”.

Al mismo tiempo, otro portavoz de Megvii, le dijo al Washington Post “que los sistemas de la compañía no están diseñados para apuntar o etiquetar a grupos étnicos”.

Por otra parte, Infobae menciona que “los funcionarios chinos han dicho que dichos sistemas reflejan el avance tecnológico del país y que su uso ampliado puede ayudar al personal de respuesta del gobierno y mantener a las personas seguras”.

Dichas afirmaciones discrepan con las preocupaciones de los defensores de derechos humanos internacionales, pues argumentan que el monitoreo y la identificación de personas mediante la Inteligencia Artificial es una clara demostración del sueño que implica el control social que quiere y requiere el régimen chino.

De esta forma, aplastar o perseguir a la disidencia es mucho más simple. En ese sentido, Maya Wang, investigadora principal de China del grupo de defensa Human Rights Watch, ha dicho “que el país ha utilizado cada vez más la vigilancia asistida por IA para monitorear de cerca al público en general y oprimir a las minorías, manifestantes y otras personas consideradas amenazas para el Estado”.

Pero más allá de la alarmante restricción y violación de derechos y libertades a manos del régimen chino contra minorías étnicas, también existe una amenaza a nivel global, pues si este tipo de tecnología se exporta como un producto chino, múltiples regímenes totalitarios pueden perfeccionar sus armas para atentar contra las libertades básicas e individuales de los ciudadanos. Y Huawei, al menos de momento, ha sido parte de esto.

Emmanuel Alejandro Rondón is a journalist at El American specializing in the areas of American politics and media analysis // Emmanuel Alejandro Rondón es periodista de El American especializado en las áreas de política americana y análisis de medios de comunicación.

Contacto: [email protected]

Deja una respuesta

Total
0
Share