A.I., inteligencia artificial, envenenamiento de datos, seguros, Janus Assurance Re, C. Constantin Poindexter

A.I. y el Peligro Envenenamiento de Datos

El incremento del despliegue de la inteligencia artificial en la suscripción de seguros ha transformado de manera radical los procesos de suscripción. La capacidad de procesar grandes volúmenes de datos, identificar patrones y calcular riesgos con precisión superior a los métodos tradicionales ha dotado a aseguradores y reaseguradores de herramientas predictivas de enorme valor. Sin embargo, este progreso técnico ha abierto también un nuevo frente de vulnerabilidades. Entre ellas, una de las más preocupantes es el llamado “envenenamiento de datos” (data poisoning), que consiste en la introducción deliberada de información corrupta o maliciosamente manipulada en los conjuntos de entrenamiento de modelos de IA, con el propósito de degradar o sesgar su rendimiento (Kure, Sarkar, Ndanusa & Nwajana 2025).

El envenenamiento de datos se manifiesta en distintas modalidades. Existen ataques dirigidos, en los que el adversario manipula información relativa a casos o clases específicas para inducir un error localizado, y ataques no dirigidos, que buscan degradar de forma general el rendimiento del modelo (Nsight/Ncontracts 2025). En ambos supuestos, la contaminación es difícil de detectar, pues los datos falsificados suelen respetar las estructuras estadísticas de los datos legítimos (Trustwise 2025). Una vez que el conjunto inicial de entrenamiento ha sido corrompido, el efecto puede replicarse en sucesivos ciclos de reentrenamiento, generando una cadena de modelos defectuosos. Estudios recientes demuestran la gravedad de este fenómeno: en experimentos de detección de fraude, la precisión de modelos afectados se redujo hasta en un 22 %, aunque ciertas técnicas de defensa lograron recuperar parte del rendimiento perdido (Kure et al. 2025). De igual modo, investigaciones han señalado que el uso de data augmentation robusto puede neutralizar ataques de envenenamiento sin sacrificar la exactitud general del modelo (Borgnia et al. 2020).

Desde la óptica del underwriting, estas vulnerabilidades no son meros problemas técnicos, sino que erosionan el núcleo mismo de la función aseguradora. La suscripción de riesgos depende de la confianza en que los modelos predictivos representen con fidelidad las probabilidades de siniestralidad y los perfiles de riesgo. Cuando la información utilizada para entrenar estos modelos se encuentra contaminada, los resultados se tornan engañosos y generan una peligrosa asimetría de información entre asegurador y asegurado. Ello puede derivar en la aceptación de riesgos subestimados, la fijación de primas inadecuadas y, en definitiva, en un fenómeno de selección adversa inducido por manipulación externa. En escenarios extremos, el ataque puede conducir a pérdidas catastróficas no anticipadas, al subestimar correlaciones sistémicas o eventos extremos que, al materializarse, desestabilizan la cartera completa de una aseguradora (Munich Re 2025).

La incertidumbre regulatoria y reputacional constituye otro vector de riesgo. Si las decisiones de suscripción basadas en modelos contaminados producen sesgos discriminatorios o fallos en la valoración de riesgos, el asegurador puede enfrentar sanciones regulatorias, litigios y un daño grave a su reputación. Por otro lado, las pólizas actuales suelen carecer de lenguaje explícito en relación con el envenenamiento de datos. Contratos de ciberseguro o de responsabilidad tecnológica rara vez incluyen provisiones para cubrir los costos de reentrenamiento de modelos, limpieza de conjuntos de datos o reparación de fallos derivados de ataques adversariales (WTW 2025). Esta falta de claridad puede generar disputas sobre la extensión de la cobertura y debilitar la seguridad jurídica tanto del asegurador como del asegurado.

La reaseguradora, a su vez, enfrenta retos particulares. Su función depende de una evaluación precisa de la exposición que le transfiere la cedente. Si el riesgo primario está distorsionado por modelos contaminados, la reaseguradora asume, sin saberlo, un riesgo mayor al previsto. Además, la ausencia de datos históricos suficientes sobre pérdidas atribuibles a envenenamiento de datos dificulta la construcción de modelos actuariales confiables (Nurse et al. 2020). El riesgo de acumulación sistémica es igualmente preocupante: dado que múltiples aseguradoras pueden depender de conjuntos de datos o modelos comunes, un solo ataque de envenenamiento podría repercutir de manera simultánea en varias carteras, provocando pérdidas agregadas de magnitud inédita (Munich Re 2025).

En cuanto a la respuesta de mercado, se vislumbran dos tendencias. Por un lado, la exigencia de mayor transparencia y auditorías técnicas por parte de reaseguradores hacia sus cedentes. Esto implica solicitar detalles sobre protocolos de validación de datos, controles de integridad y prácticas de gobernanza de IA. Por otro, la innovación en productos de seguro y reaseguro, mediante cláusulas específicas que delimiten o extiendan cobertura frente al envenenamiento de datos, e incluso la creación de pólizas especializadas, como las que empiezan a explorar ciertas aseguradoras globales (Hogan Lovells 2025). Sin embargo, estas soluciones deben equilibrarse con la necesidad de competitividad en un mercado en el que no todos los actores imponen las mismas exigencias.

Las estrategias de mitigación que se proponen en la literatura y la práctica son diversas. Destaca la implementación de auditorías externas, la diversificación de fuentes de datos y la trazabilidad integral de los mismos, de modo que se registre su origen y modificaciones (Nationwide E-Risk s.f.). En términos técnicos, los métodos de entrenamiento adversarial y la detección de anomalías mediante pruebas sistemáticas pueden mejorar la resiliencia de los modelos (Kure et al. 2025). Contractualmente, resulta aconsejable que las pólizas incorporen definiciones precisas de “envenenamiento de datos”, cláusulas de exclusión o cobertura explícitas y disposiciones sobre los costos de remediación. A nivel de fijación de primas, el grado de madurez en gobernanza de IA del asegurado podría convertirse en un factor diferenciador, de manera semejante a cómo hoy se valoran las prácticas de ciberseguridad en pólizas de riesgo tecnológico (AjG/Gallagher 2025).

En fin, el envenenamiento de datos representa un desafío emergente y de gran trascendencia para el sector asegurador y reasegurador. Su potencial disruptivo amenaza con socavar la integridad de los modelos predictivos que sustentan la suscripción de riesgos, generando pérdidas financieras, incertidumbre jurídica y daños reputacionales. No obstante, la combinación de estrategias técnicas, contractuales y organizativas puede permitir a las aseguradoras y reaseguradoras mitigar este riesgo y adaptarse a un entorno en el que la fiabilidad de los datos se convierte en un activo crítico. Reconocer la gravedad del envenenamiento de datos y abordarlo con políticas sólidas será esencial para garantizar la estabilidad de la industria en la era de la inteligencia artificial.

~ C. Constantin Poindexter, MA, JD, CPCU, AFSB, ASLI, ARe

Bibliografía

  • AjG / Gallagher. (2025). 2025 Cyber Insurance Market Conditions Outlook. Arthur J. Gallagher & Co. Disponible en https://www.ajg.com/-/media/files/gallagher/us/news-and-insights/2025/2025-cyber-insurance-market-conditions-outlook.pdf
  • Borgnia, E., Cherepanova, V., Fowl, L., Ghiasi, A., Geiping, J., Goldblum, M., … & Goldstein, T. (2020). Strong data augmentation sanitizes poisoning and backdoor attacks without an accuracy tradeoff. arXiv preprint arXiv:2011.09527.
  • Hogan Lovells. (2025). Cyber insurance: adapting to evolving risks and regulation. Hogan Lovells Publications. Disponible en https://www.hoganlovells.com/en/publications/cyber-insurance-adapting-to-evolving-risks-and-regulation
  • Kure, H. I., Sarkar, P., Ndanusa, A. B., & Nwajana, A. O. (2025). Detecting and preventing data poisoning attacks on AI models. arXiv preprint arXiv:2503.09302.
  • Munich Re. (2025). Cyber insurance: risks and trends 2025. Munich Re Insights. Disponible en https://www.munichre.com/us-non-life/en/insights/cyber/cyber-insurance-risks-and-trends-2025.html
  • Nationwide E-Risk. (s. f.). Defending AI systems from data poisoning. Nationwide Insurance Resources. Disponible en https://www.nationwide.com/excessandsurplus/e-risk/resources/news-and-insights/articles/defending-ai-systems
  • Nsight / Ncontracts. (2025). What is data poisoning?. Ncontracts Insights. Disponible en https://www.ncontracts.com/nsight-blog/data-poisoning
  • Nurse, J. R. C., Axon, L., Erola, A., Agrafiotis, I., Goldsmith, M., & Creese, S. (2020). The data that drives cyber insurance: a study into the underwriting and claims processes. arXiv preprint arXiv:2008.04713.
  • Trustwise. (2025). Data poisoning attacks in insurance compliance. Trustwise Publications. Disponible en https://trustwise.ai/data-poisoning-attacks-in-insurance-compliance
  • WTW. (2025). Emerging AI exposures and the role of cyber and E&O insurance. Willis Towers Watson. Disponible en https://www.wtwco.com/en-us/insights/2025/03/emerging-ai-exposures-and-the-role-of-cyber-and-e-and-o-insurance
Janus Assurance Re, Beacon of Excellence in the Caribbean
Implementación del Modelo de Agente General Administrativo en el Ambito Afianzador

More Posts

arrow_upward