Miércoles 07 de Agosto de 2024

Los riesgos de utilizar Inteligencia Artificial (IA)/ChatGPT en el trabajo

La falta de transparencia en su uso puede comprometer la información confidencial.

Compartir en Redes

El uso de la IA en el entorno laboral trae consigo numerosas ventajas. Sin embargo, también presenta ciertos riesgos que las empresas deben considerar.


🤖 Esta práctica, mayormente, se utiliza en: 

  • Soporte técnico automatizado. 
  • Traducción de documentos. 
  • Generador de contenidos web. 
  • Atención al cliente. 
     

🚫 Las vulnerabilidades que conlleva usar IA en el trabajo: 

  • Carga de contenido/información confidencial de la empresa.  
  • Falla en la seguridad de datos. 
  • Amenazas de ciberataques. 

La IA logra desde modificar textos hasta generar archivos fraudulentos para contaminar o robar la información o datos particulares de las empresas. 


⚠️ Riesgos de usar ChatGPT/IA en el trabajo:

  • Puede generar dependencia tecnológica. 
  • Puede originar preocupaciones sobre la reducción de personal o la alteración de roles laborales. 
  • Puede depurar código como: SQL, Python, Java, etc. (esta información podría terminar expuesta a otros usuarios).
      

😉 Cómo evitar estos riesgos: 

  • Definir límites claros para el uso de herramientas como ChatGPT. 
  • Emplear un software de monitoreo en línea para supervisar y regular su utilización. 
  • Proporcionar capacitación adecuada a los empleados. 
  • Supervisar el uso de la tecnología de manera ética y segura. 


La inteligencia artificial, como ChatGPT, es una herramienta compleja que opera según las instrucciones y contenidos que se le proporcionan. Se asemeja a una "caja negra" que almacena información.  

Actualmente, no se comprende completamente cómo procesa esta información, lo que genera incertidumbre sobre la fiabilidad de los datos que ofrece. La información proviene de diversas fuentes en internet, y no siempre tiene un respaldo confiable o verificable. 

La falta de transparencia complica la verificación de la exactitud de la información generada y reduce la posibilidad de identificar y corregir errores. Además, presenta riesgos importantes para la seguridad de datos confidenciales o sensibles compartidos con la herramienta, lo que puede ser peligroso para las empresas que la utilizan. 

​​​​​​​

📌 𝗦𝗜 𝗧𝗘𝗡𝗘𝗦 𝗔𝗟𝗚𝗨𝗡𝗔 𝗗𝗨𝗗𝗔 𝗢 𝗖𝗢𝗡𝗦𝗨𝗟𝗧𝗔: 
Escribinos a 📩 ciberseguridad@ba-csirt.gob.ar o por privado 💬 en nuestras redes.