Publicidad

Charla Técnica

¿Es confiable la IA generativa?

Las regulaciones que mitiguen los daños potenciales más obvios de la IA generativa son solo una dimensión para aprovechar su potencial. Existen mejores prácticas y enfoques tecnológicos que pueden mejorar la precisión y confiabilidad de las aplicaciones generativas basadas en IA.

Uno de esos enfoques es aprovechar aplicaciones limitadas de IA ya probadas, como el procesamiento inteligente de documentos (IDP).

Los recientes rumores en torno a ChatGPT plantean preguntas legítimas relacionadas con su confiabilidad. Según admitió él mismo, el director ejecutivo de Open AI, Sam Altman, reconoció que ChatGPT tiene «deficiencias en cuanto al sesgo» .

Un artículo reciente de Forbes , «Descubriendo los diferentes tipos de sesgo de ChatGPT», fue aún más lejos: «Las formas problemáticas de sesgo hacen que la producción de ChatGPT no sea confiable». El artículo cita cinco categorías de sesgo de ChatGPT, que en general son riesgos a tener en cuenta con las tecnologías de inteligencia artificial (IA) generativa:

Sesgo de muestra
Sesgo de moralidad programática
Sesgo de ignorancia
Sesgo de ventana de Overton
Sesgo de deferencia
El primero es el sesgo muestral. Tenga en cuenta que el 60 por ciento de los datos de capacitación de ChatGPT se basan en información extraída de Internet, limitada por una base de conocimientos de hasta el año 2021. Puede generar resultados convincentes pero completamente inexactos. Sus filtros aún no son efectivos para reconocer contenido inapropiado.

En segundo lugar está lo que Forbes llama “sesgo de moralidad programática”, que refleja las opiniones subjetivas de los desarrolladores de software sobre lo que pueden considerarse respuestas socialmente aceptables e inyecta sus normas en el modelo.

En tercer lugar está el “sesgo de ignorancia”: que el modelo está inherentemente diseñado para generar respuestas basadas en el lenguaje natural que parecen conversaciones humanas; sin embargo, sin la capacidad de comprender realmente el significado detrás del contenido.

En cuarto lugar está lo que se conoce como el » sesgo de la ventana de Overton «, mediante el cual ChatGPT intenta generar respuestas que se consideran socialmente aceptables en función del contenido de los datos de entrenamiento, lo que de hecho puede amplificar el sesgo en ausencia de estrategias rigurosas de gobernanza de datos.

En quinto lugar está el “sesgo de deferencia”, en el que existe una tendencia a confiar en la tecnología, considerando la “carga de trabajo de la mayoría de los trabajadores del conocimiento y la inmensa promesa de este nuevo y brillante juguete” .

La urgente necesidad de regular la IA

Para abordar estos sesgos, es prudente adherirse a principios y valores éticos relacionados con el desarrollo y la regulación de las tecnologías de inteligencia artificial (IA). Hay cuatro razones clave por las que se debe abordar de inmediato la necesidad de regulaciones sobre la IA:

La IA se está volviendo omnipresente y afecta prácticamente todas las facetas de nuestras vidas . Se prevé que la IA contribuirá con 15,7 billones de dólares al producto interno bruto (PIB) mundial para finales de la década. Además, un estudio de Goldman Sachs proyecta que 300 millones de puestos de trabajo podrían quedar absorbidos por tecnologías de IA como la IA generativa. La IA es simplemente demasiado grande para ser gobernada por autorregulación.
La propensión de los innovadores de tecnologías disruptivas a lanzar productos con una mentalidad de “enviar primero y reparar después” para obtener la ventaja de ser los primeros en actuar. Por ejemplo, si bien OpenAI es algo transparente sobre los riesgos potenciales de ChatGPT, lo han lanzado para un uso comercial amplio, a pesar de sus impactos dañinos. Es injusto imponer la carga a los usuarios y consumidores que pueden verse afectados negativamente por los resultados de la IA.
En muchos casos, los daños de la IA pueden ser indiscutibles ya que los consumidores carecen de visibilidad sobre cómo funcionan los sistemas de IA . Se necesita una regulación de la IA para imponer a los desarrolladores estándares mucho más altos de responsabilidad, transparencia y obligaciones de divulgación que garanticen que los sistemas de IA sean seguros y protejan la privacidad y los derechos económicos fundamentales.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *