La IA en la empresa: los pros y los contras

Por un lado, el uso de la inteligencia artificial (IA) facilita el trabajo diario, aumenta la eficiencia y conduce a una mayor fidelización de los clientes. Para las empresas, sin embargo, también surgen nuevos escenarios de daños y responsabilidades.

El uso de las nuevas tecnologías en las empresas siempre tiene dos caras. Además de las numerosas ventajas, también pueden surgir nuevos escenarios para los que aún no existe un plan de contingencia. Por lo tanto, en el caso del uso de la IA, las empresas se enfrentarán a nuevos tipos de problemas de responsabilidad en el futuro, ya que la responsabilidad de las acciones pasará de los humanos a las máquinas. Al mismo tiempo, la creciente interconexión aumenta la vulnerabilidad a los ciberataques o a los fallos técnicos, lo que puede provocar fallos a gran escala y pérdidas financieras.

En el estudio "The Rise of Artificial Intelligence: Future Outlook and Emerging Risks" (El auge de la inteligencia artificial: perspectivas de futuro y riesgos emergentes), elaborado por Allianz Global Corporate & Specialty (AGCS), se examinan, por un lado, los beneficios de la creciente implantación de la IA en las empresas y la sociedad, incluido el sector de los seguros, pero también los posibles riesgos que plantea la nueva tecnología. "Ya sea para los negocios, la política, la movilidad, la salud, la defensa o el medio ambiente, la IA aporta beneficios pero también riesgos potenciales. Necesitamos urgentemente medidas preventivas de mitigación de riesgos para maximizar los beneficios netos del despliegue masivo y reducir los efectos secundarios no deseados", explica Michael Bruch, responsable de Tendencias Emergentes de AGCS.

Consideraciones éticas

El software impulsado por la IA podría, por un lado, reducir el riesgo cibernético para las empresas a través de una mejor detección de los ataques, pero, por otro lado, facilitar justamente esos ataques al facilitar su planificación y ejecución. Un mismo ataque de hackers -o incluso un error de programación- podría reproducirse en numerosos ordenadores, según la AGCS. Esto haría que los incidentes cibernéticos globales fueran más probables.

En el ámbito de la movilidad, se depositan grandes expectativas en las aplicaciones de IA. Se supone que los coches autoconducidos eliminarán el error humano como principal causa de accidentes, y que la IA en los sistemas de control de tráfico gestionará mejor el flujo de tráfico. Sin embargo, todavía no está muy claro quién es responsable en caso de accidente y qué principios éticos deben seguir los vehículos autónomos cuando la salud y la vida de otros usuarios de la carretera están en juego.

Factores de riesgo

Según la AGCS, los riesgos de la IA pueden surgir principalmente en cinco áreas: Disponibilidad del software, seguridad, responsabilidad y ética. En cuanto a la seguridad, por ejemplo, según la empresa, la carrera por sacar rápidamente al mercado los sistemas de IA podría llevar a revisiones inadecuadas, con lo que no se garantizarían aplicaciones de IA seguras y funcionales. Esto, a su vez, podría desencadenar más defectos y retiradas de productos.

En cuanto a la cuestión de la responsabilidad, los agentes de la IA podrían quitarle muchas decisiones a los humanos en el futuro, pero no ser considerados legalmente responsables de ellas. Por regla general, el fabricante o el programador de software de los agentes de IA es responsable de los errores que causan daños a los usuarios. Sin embargo, según la legislación actual, nadie podría ser considerado explícitamente responsable de las decisiones basadas en la IA que no pueden atribuirse directamente al diseño o la fabricación, pero que son tomadas por un agente de la IA. "Si el número de daños causados por la IA aumenta, dejar la toma de decisiones en manos de los tribunales puede resultar rápidamente caro y largo", dice Bruch. "Necesitamos paneles de expertos que aclaren la responsabilidad legal por ocurrencia e ideen un marco de responsabilidad que exponga a los diseñadores, fabricantes o vendedores de productos de IA a una responsabilidad extracontractual limitada."

Se necesita una base legal

Para ello, es necesario adaptar las coberturas tradicionales para proteger tanto a los individuos como a las empresas en consecuencia. Las aseguradoras deben ser capaces de ofrecer a las empresas soluciones adecuadas para riesgos como los ciberataques, la interrupción de la actividad, la retirada de productos y los daños a la reputación. Además, es probable que se impongan nuevos modelos de seguros de responsabilidad civil, que hagan más responsables a los fabricantes y proveedores de software y limiten la responsabilidad objetiva de los consumidores, según AGCS.

También es el sector de los seguros el que ya utiliza cada vez más soluciones de IA, como los bots que clasifican y procesan automáticamente el correo entrante, los correos electrónicos o incluso las llamadas. "La IA tiene un enorme potencial para las aseguradoras. Inicialmente, apoyará la automatización de procesos para acelerar y mejorar la emisión de pólizas o la gestión de siniestros para los clientes", explica Bruch.

Según AGCS, los análisis de datos apoyados por la IA también darán a las aseguradoras y a sus clientes una mejor comprensión de los riesgos para poder reducirlos o cubrirlos mediante nuevas soluciones de seguros. Por último, pero no por ello menos importante, la IA también cambiará la relación con el cliente, ya que, por ejemplo, se pueden habilitar ofertas de autoservicio o asesoramiento las 24 horas del día.


Deja un comentario