OpenAI advirtió a Microsoft de que el chatbot de Bing no estaba preparado
AGENCIAS / EL TIEMPO¿Recuerdas todas aquellas respuestas erráticas (cuándo no un poco inquietantes) del Chatbot de Bing? Pues bien, Open AI (la compañía creadora del modelo de lenguaje GPT4 que hay bajo el chatbot de Bing) ya sabía que esto iba a pasar. De hecho pidió a Microsoft que no apresurara el lanzamiento hasta que hubieran podido pulir todos los cabos sueltos, pero Microsoft desoyó las advertencias.
Un informe publicado por el Wall Street Journal revela que tanto OpenAI como algunos ingenieros dentro de la propia Microsoft pidieron demorar el lanzamiento del Chatbot porque aún había mucho que hacer a la hora de integrar GPT-4 bajo el paraguas de Bing y el plazo estipulado por Microsoft para el lanzamiento (noviembre) dejaba apenas unas pocas semanas de plazo. Microsoft optó por desoír las advertencias y lanzar el Chatbot con la advertencia de que podía dar resultados inesperados. El resultado fueron todas aquellas conversaciones en las que el chatbot de Bing anhelaba ser humano o intentaba convencer a un redactor del New york Times de que en realidad su esposa no lo amaba y a quien amaba era a la IA.
Todas aquellas conversaciones distópicas quedaron en eso, en una mera curiosidad. Con el tiempo OpenAI y Microsoft lograron eliminar las discrepancias para que el chatbot se comportara con más decoro, pero quizá si hubieran esperado un poco en el lanzamiento se hubieran ahorrado un montón de críticas negativas y mala prensa para las IA.
Únete al canal de difusión de WhatsApp de El Tiempo MX y recibe las noticias más importantes de Monclova, Coahuila y México directamente en tu celular. ¡Haz clic y súmate ahora!
Noticias del tema