Inicio Opinión La tormenta ética de ChatGPT

La tormenta ética de ChatGPT

6 minuto leer
Comentarios desactivados en La tormenta ética de ChatGPT
0


ChatGPT es un modelo de lenguaje desarrollado por OpenAI que utiliza tecnología de procesamiento de lenguaje natural para generar respuestas coherentes y naturales a preguntas y órdenes de texto. Se entrena con grandes cantidades de datos de texto para aprender a comprender y generar idiomas humanos. Es capaz de responder preguntas, generar textos, traducir idiomas y realizar muchas otras tareas relacionadas con el lenguaje. Es una herramienta muy potente para aplicaciones como chatbots, asistentes virtuales y sistemas de generación de contenido.

Atención: el párrafo anterior fue escrito con sistema ChatGPT según la consigna: “Escribir un párrafo breve y atrayente explicando qué es ChatGPT”. Hablaremos de este sistema porque es la estrella del momento, pero es de prever que en muy poco tiempo se desatará una competencia feroz.

Para desmitificar: las implementaciones de machine learning, se basan en modelos simples y limitados del funcionamiento de las neuronas como para ser simuladas de a muchas en una computadora. Estas redes de neuronas simuladas se someten a un proceso de entrenamiento con un conjunto de números de entrada y un conjunto de números de salida conocida. A la entrada o la salida, los conjuntos de números pueden representar textos, imágenes, sonidos, etc.

En esencia son cajas de muchísimos números que se van ajustando. El ajuste es ganando experiencia: premiar/castigar al modelo si acertó o no lo que debería haber producido. Estos entrenamientos para tareas elaboradas requieren de muy elevados recursos computacionales.

Ejemplos clásicos de uso: reconocer caracteres escritos a mano y así leer documentos; o identificar gatos, perros, etc. en una imagen. Se puede entrenar a un modelo para que entren textos como consigna y salgan otros textos. ChatGPT pertenece a esta categoría y, como imaginarán, su funcionamiento interno es muy complicado.

La calidad del modelo depende del conjunto de datos de referencia para entrenarlo y el cuidado con el que se armó esa colección. Ya entrenado, el sistema responde en base a su experiencia. La bola de cristal de ChatGPT llega hasta 2021 porque las enormes bases de datos usadas para entrenarlo llegan hoy por hoy hasta ese año.

¿Es esta una verdadera inteligencia como la entendemos normalmente? La respuesta es: definitivamente no. En algunos aspectos los frutos de la inteligencia humana (infinitamente más rica en general) y los nuevos frutos artificiales pueden llegar a parecerse, pero en otros -la mayoría- serán sin duda muy diferentes.

Esta gran sensación del momento viene con problemas éticos que ya no son para nada triviales. Recientemente a varias revistas científicas se enviaron resúmenes de trabajos generados por ChatGPT, y los expertos que los leyeron consideraron que el 32% eran “reales”. En un extremo tragicómico, ya hay congresos sobre inteligencia artificial que han emitido prohibiciones sobre este tipo de aportes.

Ya surgen preguntas sobre la propiedad intelectual de una obra artística -literaria, visual o musical- salida de este tipo de sistemas. ¿Y qué hay de la responsabilidad legal por un programa de computación o una estrategia de negocios que fracasen si fueron obra de estos modelos?

Tarde o temprano deberemos establecer ciertos contornos para convivir con estos dilemas y muchos otros más: la tormenta se avecina. Ese es el desafío a futuro y el germen de nuevos problemas éticos que ya deberíamos estar debatiendo como sociedad.w


Link de la Fuente

Cargue Artículos Más Relacionados
Cargue Más Por Mundo Político
Cargue Más En Opinión
Comentarios cerrados

Mira además

Guerra de Ucrania – Rusia, en directo: última hora de la ofensiva militar de Putin, Zelenski, bombardeos, alerta nuclear

Las autoridades rusas han asegurado que las Fuerzas Armadas de Ucrania preparan una «provo…