- Newsliatter
- Posts
- 🏛️ Apple y la Casa Blanca 🆇 X utilizando tus publicaciones sin permiso 💸 OpenAI quedándose sin efectivo 🎥 Stable Video 4D
🏛️ Apple y la Casa Blanca 🆇 X utilizando tus publicaciones sin permiso 💸 OpenAI quedándose sin efectivo 🎥 Stable Video 4D
¡Bienvenido a la Newsliatter de hoy!
🏆 Historia del día: Apple ha firmado el compromiso voluntario de la Casa Blanca para el desarrollo sostenible y responsable de IA, justo cuando se prepara para integrar su recién presentada plataforma de IA (Apple Intelligence) en sus productos principales.
🗞️ ¿Qué mas vas a encontrar en esta edición?
🏋🏼 Elon Musk entrenando Grok con tus publicaciones sin consentimiento
📊 ¿Nueva Titan GPU de Nvidia?
💸 OpenAI está quedándose sin efectivo
🎥 Stability AI presenta Stable Video 4D
🔐 El NIST lanza una herramienta para probar el riesgo de los modelos de IA
🏆 Historia del día
🏛️ Apple Intelligence y la Casa Blanca
Apple ha firmado el compromiso voluntario de la Casa Blanca para el desarrollo sostenible y responsable de IA, justo cuando se prepara para integrar su recién presentada plataforma de IA (Apple Intelligence) en sus productos principales. Con esto, se une a otras 15 empresas tecnológicas, como Amazon, Anthropic, Google, Meta, Microsoft y OpenAI, que ya firmaron el compromiso en julio de 2023.
Este compromiso voluntario, al que la Casa Blanca llama "el primer paso hacia una IA segura, protegida y confiable", pide a las empresas que prueben sus sistemas de IA en busca de fallos de seguridad y compartan los resultados con el público.
Además, les pide desarrollar sistemas de etiquetado (como marcas de agua) para que los usuarios puedan identificar qué contenido está generado por IA y qué no.
A diferencia de la Ley de IA de la UE (que regula para proteger a los ciudadanos de la IA de alto riesgo y entra en vigor el 2 de agosto), estas medidas voluntarias no son legalmente vinculantes, lo que significa que las empresas no serán penalizadas por no cumplirlas.
Algunos creen que Apple ha firmado este compromiso solo para evitar una futura intervención de los reguladores, y no porque tenga un interés real en desarrollar una IA "segura, protegida y confiable". ¿Tú que opinas? ¿Por qué ha firmado Apple este acuerdo ahora, cuando los demás lo hicieron hace un año?
🗞️ Más historias de hoy
🏋🏼 Elon Musk entrenando Grok con tus publicaciones sin consentimiento
La empresa de Elon Musk, xAI, está utilizando las publicaciones de los usuarios de X sin pedirles su consentimiento para entrenar su modelo de IA Grok. La opción esta habilitada por defecto en los ajustes de la red social y debe ser cada usuario quien la desactive, cosa que solo se puede hacer desde la versión web. [link]
📊 ¿Nueva Titan GPU de Nvidia?
Se rumorea que NVIDIA podría lanzar una nueva tarjeta gráfica TITAN AI basada en la GPU Blackwell. Aunque NVIDIA decidió no sacar una versión Titan para la serie RTX 40, filtraciones sugieren que esta tarjeta está en camino. Todavía no se sabe cuándo saldrá ni qué tan útil será una GPU tan potente, que podría ser hasta un 63% más rápida que la RTX 4090. [link]
💸 OpenAI está quedándose sin efectivo
Según un análisis financiero basado en datos internos, OpenAI perderá 5.000 millones de dólares este año. Aunque la empresa esté facturando unos 3.400 millones, los gastos de entrenamiento e inferencia alcanzan los 7.000 millones, y la estructura y personal otros 1.500 millones. Sin otra inversión multimillonaria, los analistas calculan que a OpenAI le quedan unos 12 meses si sigue a este ritmo. [link]
🎥 Stability AI presenta Stable Video 4D
Stability AI ha presentado Stable Video 4D, un modelo innovador que permite a los usuarios subir un solo video y recibir videos dinámicos desde ocho perspectivas. Esto ofrece un nuevo nivel de versatilidad y creatividad, especialmente relevante para el sector de los videojuegos, edición de vídeo, y realidad virtual. Visita el link para verlo en acción. [link]
🔐 El NIST lanza una herramienta para probar el riesgo de los modelos de IA
El Instituto Nacional de Estándares de Seguridad (NIST), una agencia clave del Departamento de Comercio de EE.UU. ha relanzado una herramienta llamada Dioptra diseñada para evaluar, analizar y monitorear los riesgos en la IA. Se trata de una herramienta web de código abierto que servirá como referencia para las empresas que entrenan modelos de IA y les permitirá probar sus modelos contra amenazas. [link]
⭐ Tu feedback nos ayuda a mejorar
Leemos vuestras respuestas a diario. Si tienes alguna sugerencia o comentario, responde a este email.
Si te ha gustado esta edición, reenvíasela a un amigo.
Si te han reenviado esta newsletter y no estás suscrito, suscríbete aquí.
¡Muchas gracias por vuestro apoyo!
Hasta mañana.