Al igual que están haciendo otros gigantes tecnológicos que “abrazan” el desarrollo de la IA pero con ciertas restricciones a las oficinas, Apple ha tomado la decisión de restringir a sus empleados el uso de herramientas de inteligencia artificial como ChatGPT de OpenAI. Detrás de este movimiento se encuentra el temor a una fugas de datos.
La noticia la daba hace unas horas en exclusiva The Wall Street Journal, donde se afirmaba que desde Cupertino han optado por advertir a sus empleados contra el uso del asistente de programación de inteligencia artificial Copilot de GitHub. Más tarde fue Mark Gurman, de Bloomberg, el que indicó que en realidad ChatGPT había estado en la lista de software restringido de Apple “durante meses”.
¿Las razones? Variadas, aunque la principal es de la desconfianza de la empresa a lo que pueda ocurrir por pequeño que sea el descuido. Una de ellas está muy clara: OpenAI almacena todas las interacciones entre los usuarios y ChatGPT. Dichas conversaciones se recopilan para entrenar los sistemas de OpenAI y… los moderadores pueden inspeccionarlas para detectar incumplimientos de los términos y servicios de la empresa.
Dicho de otra forma, estos moderadores puede obtener información confidencial que puede salir de las oficinas de Apple, y aunque como aseguran desde WSJ, OpenAI lanzó una función que permite a los usuarios desactivar el historial de chat, lo cierto es que incluso con esta configuración habilitada, el programa conserva las conversaciones durante 30 días con la opción para revisarlos “por abuso” antes de eliminarlos permanentemente.
Como decíamos al inicio, Apple no es la primera en implementar estas restricciones con respecto al uso de herramientas de Chatbots, JP Morgan, Verizon o Amazon ya han llevado a cabo acciones similares. Curiosamente, la noticia sale al mismo tiempo que la propia aplicación de ChatGPT para iOS.