La empresa Anthropic, una de las más influyentes a nivel mundial en inteligencia artificial, se ha convertido en el símbolo de una nueva fractura ética en la tecnología estadounidense, tras rechazar las peticiones del Pentágono de eliminar los límites éticos al uso militar de sus modelos.
La empresa ha dejado de vender su tecnología, afirmando que no puede autorizar el uso de sus modelos para vigilancia masiva ni armas totalmente autónomas. El Departamento de Defensa de EE. UU. había impuesto un ultimátum: conceder acceso ilimitado a la tecnología o perder contratos federales por unos 200 millones de dólares. Anthropic se negó, argumentando que la IA, en algunos casos, puede «socavar los valores democráticos» en lugar de defenderlos. Esta postura ha provocado un acalorado debate en Silicon Valley, donde muchas empresas colaboran con el ejército.
Anthropic, fundada en 2021, ha crecido rápidamente; hoy en día tiene un valor de más de 380.000 millones de dólares y emplea a más de 2.500 personas. Su fortaleza es su compromiso con la construcción de IA transparente y auditable. La empresa afirma que sus plantillas de Claude están diseñadas para ser herramientas de colaboración, no herramientas de dominio.
La postura de Anthropic no representa un rechazo total a la cooperación con el gobierno, sino una invitación a desarrollar proyectos que respeten la supervisión humana, diciendo no a sistemas que podrían usarse para controlar poblaciones o automatizar la fuerza letal. El caso ha abierto un debate global sobre el papel de las empresas tecnológicas en la definición de los límites morales de la IA.
Fuente: https://www.mezzopieno.org/
