Ernst & Young está implementando un sistema de IA que define como un 'Copilot' para auditores
La privacidad y complejidad de los datos podría resultar un problema a la hora de avanzar por esta vía
Las empresas de servicios financieros se encuentran en una constante búsqueda de nuevas y mejores formas de optimizar sus procesos y garantizar la integridad de sus operaciones. Y en ese sentido, la inteligencia artificial ha abierto todo un nuevo campo para ellas.
Ernst & Young (EY), una de las llamadas 'Big Four' —las cuatro mayores firmas de contabilidad del mundo— es una de las que se ha sumado a esta tendencia, y pretende revolucionar el campo de la auditoría con el uso de la inteligencia artificial (IA) para detectar fraudes y mejorar la eficiencia de sus procesos.
EY describe su sistema de IA como un "copiloto" para los auditores, lo que sugiere que la colaboración entre humanos y máquinas puede ser el camino a seguir. La IA puede automatizar tareas repetitivas y permitir que los auditores se concentren en áreas de mayor riesgo y complejidad.
Por ahora, EY ha implementado estos sistemas de IA en sus oficinas del Reino Unido, logrando resultados prometedores: según Kath Barrow, socia gerente de EY para Reino Unido e Irlanda, el nuevo sistema identificó actividades sospechosas en dos de las primeras diez empresas auditadas, confirmándose más tarde que ambas eran fraudes.
Por otro lado, EY no es la única 'Big Four' que está experimentando con la IA. otras firmas, como KPMG y PwC, también están utilizando esta tecnología para capacitar a su personal junior, permitiéndoles asumir tareas más complejas que anteriormente requerían años de experiencia.
KPMG, por ejemplo, ha suprimido el requisito de tres años de experiencia previa para la realización de auditorías relativas a impuestos, gracias a la automatización de tareas administrativas mediante IA.
No nos vengamos demasiado arriba
Sin embargo, firmas como Deloitte —o la propia KPMG— expresan cautela en los que respecta a las expectativas sobre la efectividad de los sistemas de IA. Por ejemplo, Simon Stephens, responsable de aplicación de la IA a la auditoría en Deloitte, otra de las cuatro grandes firmas de auditoría, señala que la variedad de los fraudes dificulta la creación de patrones claros para que los sistemas de IA los identifiquen.
Otros auditores argumentan que los sistemas de IA pueden no recibir suficiente información de alta calidad para identificar con fiabilidad las múltiples formas de fraude potenciales.
Además, generan cada vez más preocupación aspectos como la seguridad y privacidad de los datos, ya que los auditores podrían utilizar información confidencial de los clientes para entrenar las IAs. Por ello, la Autoridad de Conducta Financiera del Reino Unido ya ha indicado su intención de regular su uso en este sector.
El cómo se implementará esta regulación, por otra parte, no está nada claro por ahora, lo que añade incertidumbre a las tecnologías que puedan estar desarrollándose en este momento.
Vía | Financial Times
Ver todos los comentarios en https://www.genbeta.com
VER 1 Comentario