Inteligencia artificial y el seguro tradicional: Riesgos emergentes, brechas de cobertura y el camino hacia productos aseguradores adaptados
La inteligencia artificial (IA) ha dejado de ser una promesa tecnológica para convertirse en un componente operativo de industrias tan diversas como la salud, el transporte, las finanzas y la manufactura. Según una encuesta global de McKinsey, el 71 % de las empresas ya había implementado herramientas de IA generativa en al menos una función de negocio para principios de 2025, frente al 33 % registrado apenas dos años antes (Geneva Association, 2025). Esta adopción acelerada ha generado un fenómeno paradójico para la industria aseguradora. La tecnología que promete mejorar la evaluación de riesgos y la eficiencia operativa de las propias compañías de seguros es, simultáneamente, la fuente de riesgos novedosos que las pólizas tradicionales no fueron diseñadas para cubrir.
El presente examina los principales desafíos que la IA plantea al modelo asegurador convencional, analiza las brechas de cobertura más significativas y evalúa las respuestas incipientes de la industria. El argumento central es que los seguros tradicionales, construidos sobre premisas de causalidad clara, daño definible y frecuencia estimable, resultan estructuralmente inadecuados para los riesgos que genera la IA, y que la industria debe emprender una transformación profunda de sus productos, marcos actuariales y estructuras de gobernanza para mantenerse relevante.
La naturaleza disruptiva del riesgo de IA
Los riesgos asociados a la IA se distinguen de los riesgos tecnológicos anteriores por varias características que complican su asegurabilidad. En primer lugar, la opacidad algorítmica dificulta la atribución de causalidad. Los modelos de aprendizaje profundo operan como cajas negras cuyos procesos de decisión son difíciles de auditar, lo cual crea un obstáculo fundamental tanto para la evaluación del riesgo como para la adjudicación de siniestros (Bhattacharya et al., 2025). En el sector asegurador, donde la transparencia y la explicabilidad de los algoritmos son requisitos regulatorios clave, esta opacidad representa un desafío de primera magnitud (IBM, 2025).
La difusión de responsabilidad complica la determinación de la parte culpable. Cuando un sistema de IA causa un daño, la cadena de responsabilidad puede involucrar al desarrollador del modelo, al proveedor de datos de entrenamiento, al integrador de sistemas, al usuario final y al propio fabricante de hardware. Como señaló Thomas Bentz, socio del bufete Holland & Knight, existe una confusión considerable en la industria porque aún no se ha determinado dónde encajan estos siniestros: si un programa de IA causa lesiones corporales, no está claro si la cobertura corresponde a la responsabilidad civil general o al seguro cibernético (IAPP, 2025). Esta ambigüedad genera vacíos que ninguna póliza individual está diseñada para cubrir.
Los daños que genera la IA son frecuentemente intangibles y de difusión lenta. Las alucinaciones de modelos de lenguaje que difaman a personas o empresas, las decisiones algorítmicas discriminatorias en procesos de contratación o concesión de crédito, y la degradación gradual del rendimiento de un modelo desplegado en producción son todos ejemplos de siniestros que no encajan en el paradigma del evento súbito y accidental sobre el que se construyen las pólizas de responsabilidad civil tradicionales. El caso de Air Canada, obligada a honrar un descuento que su chatbot había prometido incorrectamente a un pasajero, y el fraude con deepfakes que llevó a un empleado de la multinacional Arup a transferir millones a estafadores, ilustran la diversidad de estos riesgos (IAPP, 2025).
La brecha de cobertura: el fenómeno del «silent AI»
En la actualidad, la mayoría de los riesgos relacionados con la IA se encuentran cubiertos implícitamente bajo pólizas tradicionales de responsabilidad civil, errores y omisiones, o ciberseguros, un fenómeno que la literatura especializada denomina «silent AI» o cobertura silenciosa (Lior, 2025). Esta situación es análoga a lo que ocurrió con los primeros riesgos cibernéticos, que se cubrían de forma inadvertida bajo pólizas de propiedad y responsabilidad general antes de que surgiera el ciberseguro como línea independiente (WTW, 2025). Sin embargo, esta cobertura implícita se está erosionando rápidamente. Según informes recientes, grandes aseguradoras como AIG, Great American y WR Berkley están solicitando aprobación regulatoria para excluir explícitamente las responsabilidades relacionadas con la IA de las pólizas corporativas. El lenguaje de exclusión propuesto por WR Berkley abarca cualquier uso real o alegado de IA, incluidos productos o servicios que incorporen la tecnología (Modulos, 2026). Estas exclusiones representan una repricing fundamental del riesgo empresarial de IA que no requiere proceso legislativo ni periodo de implementación; surte efecto en la siguiente renovación de póliza.
La razón de fondo es actuarial. Las aseguradoras no pueden modelar un riesgo que no comprenden. Como señala el principio fundamental de asegurabilidad, el seguro funciona agrupando riesgos predecibles entre muchas partes; cuando las aseguradoras encuentran riesgos que no pueden modelar, no ofrecen cobertura a primas más altas, sino que simplemente rehúsan cubrirlos (Modulos, 2026). La IA, con su capacidad para fallar de formas imprevistas, correlacionadas y sistémicas, desafía los supuestos actuariales de independencia estadística y frecuencia estimable sobre los que se construye el seguro moderno.
El marco regulatorio como catalizador
El entorno regulatorio está añadiendo una capa adicional de complejidad. El Reglamento de Inteligencia Artificial de la Unión Europea (AI Act), cuya aplicación general comenzó en agosto de 2025, clasifica los sistemas de IA utilizados para la evaluación de riesgos y la fijación de precios en seguros de vida y salud como sistemas de alto riesgo (Parlamento Europeo, 2024). Esto implica obligaciones estrictas de gestión de riesgos, gobernanza de datos, documentación técnica y supervisión humana para las aseguradoras que desplieguen estos sistemas (Blue Arrow AI, 2025).
Paralelamente, la UE está actualizando su Directiva de Responsabilidad por Productos Defectuosos para que las víctimas de daños causados por IA puedan demandar bajo un régimen de responsabilidad objetiva con carga de la prueba aligerada. Esto significa que las empresas que desplieguen IA en sus productos enfrentarán un entorno de responsabilidad equiparable al de la manufactura tradicional, lo que hace aún más crucial el seguro de responsabilidad por productos (WTW, 2025). En Estados Unidos, aunque propuestas legislativas como un proyecto de ley en California para imponer responsabilidad objetiva a los desarrolladores de IA no se han convertido en ley, indican una tendencia clara hacia la asignación de responsabilidad incluso en ausencia de negligencia.
El incumplimiento de estas nuevas normativas genera una exposición que no encaja fácilmente en ninguna categoría de póliza existente. Algunas aseguradoras, como QBE, ya han introducido endosos que cubren de forma limitada las multas bajo el AI Act europeo, señalando que los marcos de gobernanza se convertirán en prerrequisitos para la cobertura, no en complementos opcionales (Modulos, 2026).
Respuestas de la industria y productos emergentes
Frente a estos desafíos, la industria aseguradora está comenzando a articular respuestas, aunque todavía en fase experimental. Deloitte proyecta que para 2032 las aseguradoras podrían suscribir aproximadamente 4.700 millones de dólares en primas anuales globales de seguros de IA, con una tasa de crecimiento anual compuesta cercana al 80 % (Deloitte, 2025). Para alcanzar esa meta, la industria está explorando varias vías.
La primera consiste en extender las pólizas existentes mediante endosos específicos para IA. Coalition, una compañía de seguros de riesgos digitales, anunció a finales de 2025 que comenzaría a ofrecer cobertura para incidentes relacionados con deepfakes que generen daño reputacional, incluyendo servicios de análisis forense, apoyo legal para eliminación de contenido y asistencia en comunicación de crisis (IAPP, 2025).
La segunda vía es el desarrollo de productos independientes. Armilla Insurance Services introdujo un producto de seguro de responsabilidad civil para IA suscrito por sindicatos de Lloyd’s of London que cubre específicamente riesgos como alucinaciones, degradación del rendimiento de modelos y fallos algorítmicos (Hunton Andrews Kurth, 2025). Google, por su parte, ha establecido asociaciones con aseguradoras como Beazley y Chubb para ofrecer cobertura de riesgos específicos de IA.
La tercera vía, un chin más innovadora, es la experimentación con disparadores paramétricos que pagan cantidades predeterminadas cuando ocurren eventos específicos de fallo de IA, simplificando el proceso de reclamación en un entorno de incertidumbre (Geneva Association, 2025). Este enfoque replica la evolución del ciberseguro hace dos décadas, con limitaciones iniciales cuidadosas y primas elevadas mientras se recopilan datos de pérdidas.
Demanda empresarial y perspectivas
La encuesta de la Geneva Association a 600 tomadores de decisiones de seguros corporativos en seis mercados principales reveló que más del 90 % de las empresas expresaron la necesidad de cobertura específica para IA generativa, y dos tercios estaban dispuestos a pagar al menos un 10 % adicional sobre sus primas actuales (Geneva Association, 2025). La ciberseguridad fue identificada como el riesgo principal relacionado con IA que las empresas desean cubrir, seguido de la responsabilidad frente a terceros y las interrupciones operativas. No obstante, el informe advierte sobre el riesgo significativo de selección adversa: los compradores más dispuestos a adquirir cobertura son precisamente aquellos que hacen un uso intensivo de la IA o que ya han experimentado incidentes graves.
El informe Forecast 2025 de la firma Kennedys situó la adopción de IA en el primer puesto de su índice global de riesgos para el sector asegurador, por delante de los ciberataques y los fenómenos meteorológicos extremos. Si bien los encuestados estimaron que el impacto verdadero de la IA no se sentirá plenamente durante tres a cinco años, más del 85 % de los socios globales de la firma citaron la IA como el factor de mayor impacto a largo plazo (Kennedys, 2025).
La industria aseguradora se encuentra en un punto de inflexión comparable al que experimentó con la llegada de los riesgos cibernéticos a principios del siglo XXI. Los riesgos de la IA desafían las tres premisas fundamentales del seguro tradicional, i.e., causalidad clara, daño definible y frecuencia estimable, y demandan una respuesta que va más allá de la simple adición de endosos a pólizas existentes. La combinación de marcos regulatorios exigentes como el AI Act europeo, la creciente exclusión de riesgos de IA por parte de las grandes aseguradoras y una demanda empresarial manifiesta configuran un escenario en el que la creación de productos aseguradores específicos para IA no es solo una oportunidad de negocio, sino una necesidad estructural del mercado.
Las aseguradoras que aspiren a liderar esta transformación deberán invertir en capacidades de evaluación de riesgos tecnológicos, colaborar con desarrolladores de IA y reguladores para establecer estándares de gobernanza, y pilotar productos modulares que puedan adaptarse a una tecnología cuyo perfil de riesgo evoluciona con rapidez. Como señala Swiss Re (2024), al igual que las sociedades desarrollaron medidas para controlar el fuego, la industria aseguradora debe desarrollar marcos para garantizar que la IA se utilice de manera segura y ética. La pregunta ya no es si el seguro de IA se convertirá en una línea de negocio independiente, sino cuán rápido logrará la industria cerrar la brecha entre la velocidad de adopción tecnológica y la capacidad de transferir los riesgos que dicha adopción genera.
~ C. Constantin Poindexter Salcedo, MA, JD, CPCU, AFSB, ASLI, ARe, AINS, AIS, CPLP
Bibliografía
- Bhattacharya, S., Castignani, G., Masello, A. y Sheehan, B. (2025). AI revolution in insurance: Bridging research and reality. Frontiers in Artificial Intelligence, 8. https://doi.org/10.3389/frai.2025 (acceso abierto CC BY).
- Blue Arrow AI. (2025, 14 de diciembre). How the EU AI Act will impact insurance: High-risk systems, obligations and timelines. https://bluearrow.ai/ai-act-and-insurance/
- Deloitte. (2025). Risk insurance for AI coverage. Deloitte Insights. https://www.deloitte.com/us/en/insights/industry/financial-services/risk-insurance-for-ai.html
- Geneva Association. (2025). Gen AI risks for businesses: Exploring the role for insurance (R. Jia, M. Eling y T. Wang, autores). Geneva Association. https://www.genevaassociation.org/publication/digital-ai-transformation/gen-ai-risks-businesses-exploring-role-insurance
- Hunton Andrews Kurth LLP. (2025). How insurance policies are adapting to AI risk. https://www.hunton.com/insights/publications/how-insurance-policies-are-adapting-to-ai-risk
- IAPP. (2025). How AI liability risks are challenging the insurance landscape. International Association of Privacy Professionals. https://iapp.org/news/a/how-ai-liability-risks-are-challenging-the-insurance-landscape
- IBM. (2025, 18 de noviembre). The risks and impact of AI in insurance. IBM Think. https://www.ibm.com/think/insights/ai-insurance-risks
Kennedys. (2025, 3 de febrero). AI tops global risk index for insurance sector in 2025 as sustainability drops to bottom. Kennedys Forecast 2025. https://www.kennedyslaw.com/en/news/2025/ai-tops-global-risk-index-for-insurance-sector-in-2025/ - Lior, A. (2025). E/Insuring the AI age: Empirical insights into artificial intelligence liability policies. Connecticut Insurance Law Journal, 31, 99.
McKinsey & Company. (2025). The future of AI for the insurance industry. https://www.mckinsey.com/industries/financial-services/our-insights/the-future-of-ai-in-the-insurance-industry - Milliman. (2024). The AI-Act’s impact on insurance. https://www.milliman.com/en/insight/eu-ai-act-impact-on-insurance
Modulos. (2026, 9 de enero). The insurance industry just became AI’s most powerful regulator. Modulos Blog. https://www.modulos.ai/blog/insurance-industry-ai-regulation-liability-exclusions/ - Parlamento Europeo. (2024). Reglamento (UE) 2024/1689 por el que se establecen normas armonizadas en materia de inteligencia artificial (Reglamento de Inteligencia Artificial). Diario Oficial de la Unión Europea.
- Swiss Re. (2024, 5 de agosto). AI brings a major change to insurance risk landscape. Swiss Re Institute. https://www.swissre.com/risk-knowledge/advancing-societal-benefits-digitalisation/ai-brings-major-change-to-insurance.html
- WTW (Willis Towers Watson). (2025, 9 de diciembre). Insuring the AI age. https://www.wtwco.com/en-nz/insights/2025/12/insuring-the-ai-age













































