La inteligencia artificial (IA) está cada vez más presente en muchos ámbitos de nuestra vida cotidiana y no deja de sorprender e inquietar. Uno de sus máximos exponentes de esta herramienta es el ChatGPT, merecedora de nutridos espacios publicitarios y que podría hacerle pasar un mal rato a Google.
ChatGPT es un modelo de lenguaje diseñado por OpenAI que utiliza la tecnología de inteligencia artificial para procesar y generar texto de manera autónoma. El ChatGPT irrumpió en la escena pública como una sensación a fines de 2022 y en enero del 2023 superó los 100 millones de usuarios activos. La inteligencia artificial en su esencia no es nada nuevo: consiste en un chatbot como cualquier otro que, a diario, es utilizado por instituciones privadas y públicas.
Este modelo ha sido entrenado con una gran cantidad de datos lingüísticos, lo que le permite generar respuestas coherentes y relevantes a una amplia variedad de preguntas y temas. Sin embargo, su principal ventaja reside en su aparente precisión, en la medida en que es capaz de responder preguntas y brindar información sobre un abanico de tópicos, en tiempo real, y con un lenguaje amable y coherente; tanto que por momentos parece imitar una conversación humana. De esta manera, la inteligencia artificial es más valorada cuanto menos artificial parece.
Si bien ChatGPT es una herramienta muy útil para muchas aplicaciones, también plantea importantes cuestiones éticas en cuanto a su uso y su impacto en la sociedad.
Por un lado, ChatGPT puede utilizarse para mejorar la eficiencia y la productividad en una amplia variedad de campos, desde la atención al cliente hasta la educación y la investigación. Además, puede ser utilizado para mejorar la accesibilidad de la información y la comunicación, especialmente para aquellos que tienen discapacidades visuales o auditivas.
Sin embargo, también hay preocupaciones éticas en torno al uso de ChatGPT. En particular, hay preocupaciones sobre la seguridad y la privacidad de los datos, especialmente cuando se utilizan modelos de lenguaje para generar contenido falso o engañoso. También existen preocupaciones sobre la posibilidad de que los modelos de lenguaje puedan ser utilizados para difundir información falsa o para manipular a las personas.
Ejemplo de ello es que grandes empresas han prohibido o limitado la utilización entre sus empleados del ChatGPT:
En España, Telefónica no permite el uso de esta herramienta para tratar o almacenar información de la empresa, a menos que la cuenta sea contratada y controlada por el propio operador de telecomunicaciones, mientras que el Banco Bilbao Vizcaya Argentaria (BBVA) ha prohibido su utilización de manera general, aunque ha habilitado un proceso de autorización para aquellos profesionales que consideren que pueda ser útil. Otras empresas de relevancia nacional como Naturgy y Enagás, que operan en los sectores eléctrico y gasístico, han enviado a sus trabajadores recomendaciones para utilizar herramientas de IA, mientras que la multinacional energética y petroquímica Repsol y la compañía de seguros Mapfre ya tienen o están elaborando protocolos que garanticen que la inteligencia artificial se utiliza de manera segura y ética. Otras comunicaciones alertan del peligro que supone introducir datos personales y corporativos, detallando que existe la posibilidad de que se produzcan filtraciones. Todas las compañías han expresado que, mientras esperan que pronto las autoridades formulen una regulación que establezca los parámetros por los que debe regirse la IA generativa, están explorando las posibilidades que esta puede ofrecer en su conjunto a sus respectivos procesos de negocio. Carme Artigas, secretaria de Estado para la Digitalización e Inteligencia Artificial de España, declaró que el país ibérico será el primero del mundo en disponer de una agencia destinada a supervisar la IA. Asimismo, el Gobierno español prepara un proyecto piloto para que las empresas puedan probar el futuro reglamento europeo y prever posibles obstáculos para la innovación. Por su parte, Redeia (Red Eléctrica) ha bloqueado el empleo de la versión pública de ChatGPT por posibles riesgos vinculados a la protección de la información, algo que es especialmente relevante al tratarse de una compañía que gestiona infraestructuras estratégicas.
Es importante que aquellos que utilizan ChatGPT u otros modelos de lenguaje similares, consideren estos riesgos y actúen de manera responsable y ética en su uso. A continuación, se presentan algunas pautas para garantizar un uso responsable de ChatGPT:
1.Garantizar la privacidad y la seguridad de los datos: Es importante asegurarse de que se estén utilizando medidas de seguridad adecuadas para proteger los datos que se utilizan para entrenar y utilizar modelos de lenguaje. También es importante tener en cuenta las regulaciones de privacidad de datos y cumplir con ellas.
2.Evitar la generación de contenido falso o engañoso: Es importante utilizar modelos de lenguaje con responsabilidad y ética, evitando su uso para generar contenido falsificado o engañoso. Esto incluye evitar la propagación de información sesgada o manipulada.
3.Fomentar la transparencia y la responsabilidad: Es importante ser transparente acerca del uso de modelos de lenguaje y tomar medidas para garantizar que se esté actuando de manera responsable y ética. Esto puede incluir la divulgación de cómo se está utilizando el modelo de lenguaje y la implementación de medidas para garantizar la precisión y la calidad de la información generada. La credibilidad de la información proporcionada es otro de los retos. Las respuestas elaboradas por ChatGPT siempre suenan plausibles, pero no siempre son precisas o están verificadas. Confiar excesivamente en esta herramienta puede conducir a errores y sesgos indeseables. El contexto educativo es una de las realidades donde este fenómeno se ha hecho más evidente. Recientemente, algunas universidades han adoptado medidas ante los primeros indicios de que algunos estudiantes estaban utilizando sistemas de IA para la elaboración de ensayos académicos.
4.Considerar el impacto social y ético: Es importante tener en cuenta cómo el uso de modelos de lenguaje puede afectar a la sociedad en general. Es importante reflexionar sobre las posibles consecuencias negativas que podrían surgir del uso de modelos de lenguaje y buscar formas de mitigar estos riesgos.
5.Implementar medidas de control de calidad: Es importante implementar medidas para garantizar la calidad del contenido generado por modelos de lenguaje. Esto puede incluir la revisión humana del contenido generado y la implementación de mecanismos de retroalimentación para mejorar la precisión y la calidad de las respuestas generadas.
En Cuba, sin embargo, la interacción con ChatGPT no resulta del todo expedita, pues tal y como ya han comprobado varios usuarios, estos servicios de Inteligencia Artificial no están disponibles en la isla. Sin embargo, hay opciones de acceso desde otras herramientas como los Bots de Telegram y se puede acceder a los servicios a través de esta página: https://poe.com/
En resumen, ChatGPT es una herramienta poderosa que puede ser utilizada para mejorar la eficiencia y la productividad en una amplia variedad de campos. Sin embargo, es importante utilizar esta tecnología de manera responsable y ética, teniendo en cuenta los posibles riesgos y consecuencias negativas que podrían surgir. Al seguir estas pautas, podemos aprovechar el potencial de ChatGPT para mejorar nuestras vidas y nuestra sociedad de manera responsable y sostenible.
Leer más...