- Newsliatter
- Posts
- ✅ Nuevo enfoque de seguridad de OpenAI 🔎 La batalla por la búsqueda con IA 😀 IA para monitorizar las sonrisas de empleados
✅ Nuevo enfoque de seguridad de OpenAI 🔎 La batalla por la búsqueda con IA 😀 IA para monitorizar las sonrisas de empleados
¡Bienvenido a la Newsliatter de hoy!
🏆 Historia del día: OpenAI ha desarrollado una nueva forma de mejorar la seguridad de sus modelos de IA, llamada Recompensas Basadas en Reglas (RBRs), que utiliza la IA para alinear el comportamiento del modelo con estándares y políticas de seguridad específicos, sin intervención humana.
🗞️ ¿Qué mas vas a encontrar en esta edición?
🧠 Large 2, el nuevo modelo de Mistral
⚔️ Microsoft vs. Google: Búsqueda con IA
🔎 OpenAI también se suma a la búsqueda con IA
😀 IA para monitorizar las sonrisas de los empleados
🏆 Historia del día
✅ El nuevo enfoque de seguridad de OpenAI
OpenAI ha desarrollado una nueva forma de mejorar la seguridad de sus modelos de IA, llamada Recompensas Basadas en Reglas (RBRs), que utiliza la IA para alinear el comportamiento del modelo con estándares y políticas de seguridad específicos, sin intervención humana.
Anteriormente, los humanos puntuaban las respuestas del modelo de IA a las indicaciones en función de su precisión o preferencia: un método que era costoso, consumía mucho tiempo y era vulnerable a la subjetividad.
Con las RBRs, los equipos de seguridad pueden crear reglas para el modelo y la IA puntuará sus respuestas según el grado en que se alineen con estas reglas, lo cual es más eficiente y no subjetivo.
Durante las pruebas, los modelos de IA entrenados con RBRs mostraron una mejor adherencia a los estándares de seguridad y redujeron los casos errores en comparación con aquellos entrenados con retroalimentación dirigida por humanos.
Aunque las RBRs son un avance en asegurar que los modelos de IA se mantengan alineados con los protocolos de seguridad deseados—creando así modelos más seguros—OpenAI ha reconocido que, aunque las RBRs podrían reducir el tiempo de entrenamiento, los costos, la supervisión humana y la subjetividad, el uso de IA para guiar sus modelos podría aumentar potencialmente los sesgos.
🗞️ Más historias de hoy
🧠 Large 2, el nuevo modelo de Mistral
Tan solo un día después de que Meta revelara su modelo Llama 3.1, la start-up francesa respaldada por Microsoft, Mistral, ha lanzado Large 2. Este modelo está a la par con GPT-4o de OpenAI y Llama 3.1 de Meta (y mejor que Claude 3.5 Sonnet de Anthropic) en cuanto a rendimiento, pero es mucho más eficiente debido a su menor tamaño. [link]
⚔️ Microsoft vs. Google: Búsqueda con IA
Microsoft ha presentado una nueva función de búsqueda con IA: la búsqueda generativa de Bing, que ofrece resúmenes generados por IA en respuesta a consultas de búsqueda, exactamente igual que la función de Resumen de IA de Google. [link]
🔎 OpenAI también se suma a la búsqueda con IA
Los rumores eran ciertos. OpenAI estaba trabajando en su propio buscador basado en inteligencia artificial (IA). La compañía liderada por Sam Altman ha anunciado este jueves un prototipo de SearchGPT, un nuevo producto que promete brindar “respuestas rápidas con fuentes claras y relevantes”.[link]
😀 IA para monitorizar las sonrisas de los empleados
La cadena de supermercados japonesa AEON está generando debate por utilizar un sistema de inteligencia artificial (IA) para evaluar el comportamiento de los empleados durante el servicio. El sistema de inteligencia artificial evaluará las sonrisas y el tono de voz para asignar una puntuación a la calificación de los empleados. [link]
⭐ Tu feedback nos ayuda a mejorar
Leemos vuestras respuestas a diario. Si tienes alguna sugerencia o comentario, responde a este email.
Si te ha gustado esta edición, reenvíasela a un amigo.
Si te han reenviado esta newsletter y no estás suscrito, suscríbete aquí.
¡Muchas gracias por vuestro apoyo!
Hasta mañana.