Buscar
Sector Financiero

Lectura 4:00 min

Tecnología financiera también conlleva riesgos para el sistema

El nacimiento de nuevos actores también implicaría el surgimiento de monopolios u oligopolios.

El uso de nuevos instrumentos tecnológicos en el sistema financiero no sólo trae ventajas para el sector sino también implica riesgos en caso de que llegue una gran crisis financiera, indicó el Consejo de Estabilidad Financiera (Financial Stability Board, FBS por su sigla en inglés).

De acuerdo con el reporte “Inteligencia Artificial y Aprendizaje Automático en Servicios Financieros” elaborado por el FBS, es mejor vislumbrar en este momento los riesgos que pueden implicar estas tecnologías, en donde empiezan a despegar, que después, cuando sea tarde en caso de una catástrofe.

“La mayoría de los participantes del mercado (financiero) espera que la inteligencia artificial y el aprendizaje automático se adopten más. Debido a esto, es importante comenzar a pensar en las implicaciones de la estabilidad financiera en lugar de una vez que las implicaciones potenciales se hayan materializado”, detalló el FBS en su informe.

El reporte señaló que con el nacimiento de estas nuevas tecnologías también surge espacio para la llegada de terceros, mismos que podrían ser sistemáticamente importantes debido a que los servicios que ofrecen apenas son ofertados por pocas “grandes empresas” de tecnología.

“Existe el potencial (de la generación) de monopolios u oligopolios naturales. Éstos son problemas de competencia suficientemente relevantes desde la perspectiva de la eficiencia económica, que podrían traducirse en riesgos de estabilidad financiera siempre y cuando tales empresas de tecnología tengan una gran participación de mercado en segmentos específicos del mercado financiero”, acotó el reporte.

El informe agregó que las dependencias que se tengan con estos terceros podrían tener efectos sistémicos en caso de que una empresa de este tipo enfrentara una interrupción importante o un problema de solvencia.

FUERA DEL ESPECTRO REGULATORIO

El organismo afirmó que algunas de estas empresas que emergen con la aplicación de estas tecnologías podrían quedar fuera del espectro de los supervisores del sistema financiero o simplemente pueden no estar familiarizados con las leyes financieras actuales, lo que podría implicar que sus actividades estén fuera del “espectro regulatorio”.

“Muchos proveedores actuales de herramientas de inteligencia artificial y de aprendizaje automático en servicios financieros pueden quedar fuera del perímetro regulatorio o pueden no estar familiarizados con las leyes y regulaciones aplicables. Cuando las instituciones financieras confían en terceros proveedores (...) para funciones críticas, y las reglas sobre tercerización pueden no estar implementadas o no ser entendidas, estos servidores y proveedores pueden no estar sujetos a supervisión”, añadió el informe.

“Si los proveedores —agregó— de tales herramientas comienzan a proporcionar servicios financieros a clientes institucionales o minoristas, esto podría implicar actividades financieras que tienen lugar fuera del perímetro regulatorio”.

El organismo enfatizó que en la actualidad, muchos de estos modelos de negocio todavía no son interpretados de la manera correcta por los reguladores y en ese contexto, el cual se empata con la baja volatilidad, se pueden omitir acciones que serían recomendables en una crisis financiera significativa.

“La falta de una correcta interpretación hará que sea aún más difícil determinar los efectos potenciales (sistémicos) más allá del balance general de las empresas, por ejemplo, durante un shock sistémico. Cabe destacar que muchos modelos desarrollados de inteligencia artificial y aprendizaje automático se están probando en un periodo de baja volatilidad”, detalló el Consejo de Estabilidad Financiera.

“Cuando las acciones de los modelos (nuevos) interactúan en el mercado, es posible que las consecuencias no deseadas, y posiblemente negativas, puedan impactar en los mercados financieros. Consecuencias no deseadas similares pueden ocurrir en aplicaciones destinadas a la calificación crediticia, la optimización del capital o la detección de amenazas cibernéticas, donde la acumulación de riesgos puede ocurrir lentamente”, añadió.

Asimismo, el FBS señaló que todo esto es un reto para los reguladores del sistema financiero: “La auditoría (de estos) modelos puede requerir habilidades y experiencia que las instituciones supervisoras pueden no tener actualmente (...) Los esfuerzos para mejorar la lectura de la inteligencia artificial y el aprendizaje automático pueden ser condiciones importantes no sólo para la gestión de riesgos sino también para una mayor confianza del público en general”.

fernando.gutierrez@eleconomista.mx

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros NewslettersREGÍSTRATE AQUÍ

Últimas noticias

Noticias Recomendadas