loader image

Chat GPT es un modelo de lenguaje de inteligencia artificial (IA) o “generador de texto” desarrollado por OpenAI, lanzado al público en noviembre de 2022, que ya posee millones de usuarios. Si bien al comienzo la mayoría de los usuarios usaban la versión pública disponible solo para tareas personales, muchos ya han comenzado a usarla para proyectos laborales. 

Actualmente, el conocimiento de Chat GPT se basa 100% en la información disponible en Internet. No obstante, su aprendizaje se detuvo en el año 2021, con lo cual hay que tener en claro que esta herramienta no brinda información posterior a esa fecha. 

Frente a este escenario, un artículo reciente del buffet de abogados “Debevoise & Plimpton” nos introduce en el tema para comprender cómo las personas usan el Chat GPT en sus trabajos, cuáles son los riesgos asociados y qué políticas deberían implementar las empresas para mitigarlos. 

Uso del Chat GPT en el ámbito laboral

Se han escrito diversos artículos sobre cómo Chat GPT podrá reemplazar ciertos trabajos en un futuro no muy lejano. Sin embargo, al menos por ahora, parece que Chat GPT no está reemplazando a los recursos humanos (empleados), sino más bien, mejorando su productividad en aquellas tareas que demandan mayor trabajo y tiempo. Estos son apenas algunos ejemplos:

  1. Verificador de hechos: Los empleados están usando Chat GPT de la misma manera que podrían usar Google o Wikipedia para verificar los hechos en los documentos que están produciendo o revisando. La misma herramienta le advierte al usuario verificar la precisión de la información y no confiar ciegamente en ella.
  2. Armador de borradores preliminares: Chat GPT puede generar borradores preliminares de cualquier material en proceso. Luego se deberá procesar la información, hilar las ideas y darle un desarrollo adecuado.
  3. Editor de documentos: Debido a que es un modelo de lenguaje que fue entrenado en millones de documentos, Chat GPT es muy bueno en la edición de texto, ya que corrije errores gramaticales, proporciona más claridad y, en general, perfecciona la lectura. De todos modos es recomendable recordar que Chat GPT puede decir todo en una misma idea, sin profundizar demasiado en ninguna.
  4. Generador de ideas: Chat GPT es eficaz aportando ideas para diversos artículos y publicaciones pero no funciona para crear textos de valor y con personalidad de marca.Entendemos que no reemplaza al recurso humano. Una de las claves es cómo formular la pregunta para lograr un resultado lo más específico y satisfactorio posible.

Cuáles son los riesgos asociados a su uso (comerciales, legales, reputacionales, etc.)

  1. Riesgos de control de calidad: Chat GPT presenta limitaciones y puede generar resultados imprecisos, irrelevantes, incorrectos o inexistentes. Y por eso la propia herramienta hace advertencias al respecto. Este tipo de riesgos aumentan cuando el usuario no revisa los resultados de Chat GPT o no puede identificar fácilmente lo que está mal o no aparece en la respuesta que brinda la herramienta. El riesgo es mayor cuando los resultados involucran información sensible, con lo cual no es viable compartir su contenido.
  1. Riesgos contractuales: Existen dos tipos: 
  • la empresa puede tener restricciones para compartir la información confidencial de terceras partes (clientes, proveedores, etc.) y eso involucra a OpenAI a través del uso del Chat GPT;
  • el intercambio de ciertos datos de clientes con Chat GPT también puede violar las disposiciones contractuales contraídas esos clientes, al darle un uso inapropiado a esos datos. 

Además, es importante remarcar que OpenAI puede usar el contenido proporcionado por los usuarios a Chat GPT para desarrollar y mejorar su funcionalidad, lo cual constituye un riesgo tanto para la empresa como así también para el usuario a nivel personal. 

  1. Riesgos de privacidad: Compartir información personal (con OpenAI a través de Chat GPT) sobre terceras partes relacionadas a una organización puede crear riesgos de este tipo. OpenAI puede usar conversaciones de Chat GPT con fines de capacitación y para mejorar sus sistemas. Con lo cual, las empresas pueden tener la obligación de actualizar sus políticas de privacidad, proporcionar avisos a los clientes, obtener su consentimiento y / o proporcionarles derechos de exclusión, etc. El uso de Chat GPT que involucra datos personales también plantea interrogantes sobre cómo las empresas, y a su vez OpenAI, podrían abordar los derechos o solicitudes de eliminación de datos generados por la propia herramienta.
  1. Riesgos de protección del cliente: Si el cliente no es consciente de que está interactuando con Chat GPT o recibe un documento de una empresa que fue generado a través de Chat GPT sin haber sido notificado previamente, puede existir el riesgo de reclamos por prácticas desleales o engañosas (lo cual traería aparejados además riesgos reputacionales). 

5. Riesgos de propiedad intelectual: Se plantea un tema de cierta complejidad: 

  • si los empleados usan Chat GPT para generar un software code u otro contenido, el mismo puede no estar protegido por derechos de autor en varias jurisdicciones, ya que no fue creado por un ser humano. 
  • existe el riesgo de que Chat GPT y cualquiera de sus contenidos puedan considerarse un trabajo derivado de materiales con derechos de autor, utilizados para brindar capacitación sobre la herramienta misma. Si prevalece ese punto de vista, el software code, los materiales de marketing, etc. podrían ser considerados infractores, en particular si dicho contenido se asemeja a los datos de capacitación con derechos de autor.
  • si los empleados envían información confidencial a Chat GPT para su análisis, existe el riesgo de que otros usuarios de Chat GPT puedan acceder a esos datos violando su privacidad (abonando la teoría de que dichos datos no fueron tratados adecuadamente).

6. Riesgos de los proveedores: Muchos de los riesgos descriptos anteriormente también se aplican a los datos que la empresa intercambia con los proveedores. Por ejemplo, los contratos con proveedores deberían especificar que la información proporcionada por el proveedor a la empresa no puede ser generada por el Chat GPT sin consentimiento previo. En otro orden, los contratos deberían especificar también que los proveedores no pueden ingresar datos confidenciales de la empresa en el Chat GPT.

Cómo reducir los riesgos asociados al uso de Chat GPT

Dada la presencia de los riesgos mencionados, algunas empresas en Estados Unidos ya han comenzado a capacitar a sus empleados acerca de esta herramienta y redactar políticas sobre su uso en el ámbito laboral. 

Las políticas que rodean a Chat GPT tienden a dividir su uso en tres categorías: 

  • usos que están prohibidos (por ej., usar Chat GPT para verificar posibles errores en documentos confidenciales de la compañía o del cliente o códigos confidenciales de la compañía); 
  • usos permitidos con autorización de alguna autoridad designada (por ej., generar códigos, siempre y cuando sean revisados por un experto antes de ser implementados); 
  • usos que generalmente se permiten sin ninguna autorización previa (por ej., crear información interna administrativa, como ser ideas para el “proceso de inducción” de nuevos empleados).

Además, las organizaciones ya están tomando medidas para reducir los riesgos asociados con el uso de Chat GPT, a saber:

  1. Calificación de riesgo: Diseñar criterios para evaluar si un uso particular de Chat GPT es de bajo, medio o alto riesgo (por ejemplo, compartir información confidencial de la compañía o del cliente con Chat GPT, resultados de rendimiento con los clientes, etc.).
  2. Inventario: Requerir que todos los usos de Chat GPT en el trabajo se informen a un equipo que monitoree estos usos y los evalúe como de bajo, mediano o alto riesgo, según los criterios establecidos (actualizando los mismos según corresponda).
  3. Etiquetado interno: Para ciertos usos, los usuarios podrán marcar el contenido generado por Chat GPT con una etiqueta identificatoria, para que el equipo preste atención a estos materiales.
  4. Transparencia externa: Identificar con claridad el contenido creado por Chat GPT al compartirlo con terceros o públicamente.
  5. Mantenimiento de registros: Respecto de usos de riesgo alto, mantener un registro sobre cuándo se generó el contenido y qué mensaje se utilizó para generarlo.
  6. Training: Capacitar periódicamente a los empleados sobre los usos aceptados y prohibidos de Chat GPT, basados en la experiencia de la empresa y otras organizaciones.
  7. Monitoreo: Para ciertos casos de uso de mayor riesgo, implementar herramientas (incluidas las ya creadas por OpenAI u otros proveedores de modelos de IA) para establecer si la información generada puede violar o no las políticas de la compañía.

Si trabajas en las áreas de risk management, compliance o auditoría, no deberías preocuparte por ser reemplazado por Chat GPT, en todo caso deberías estar alerta para identificar cual es el uso que le están dando tus competidores a esta herramienta de IA. El futuro está llegando, y los nuevos usos y el auge de la IA están alterando la forma en que gestionamos nuestro trabajo (y ya no hablamos solo de los datos).

Fuente: https://www.debevoise.com/insights/publications/2023/02/does-your-company-need-a-chatgpt-policy-probably#

Pin It on Pinterest

Share This