- Newsliatter
- Posts
- ⚠️ Grupo iraní usando ChatGPT para propaganda 🎨 Google lanza Imagen 3 👨🏻🏫 IA en colegios en Corea del Sur
⚠️ Grupo iraní usando ChatGPT para propaganda 🎨 Google lanza Imagen 3 👨🏻🏫 IA en colegios en Corea del Sur
📝 Detector de IA de Grammarly 👃🏼 ¿IA con olfato? 🤖 IA modifica su propio código
¡Bienvenido a la Newsliatter de hoy!
🏆 Historia del día: OpenAI ha descubierto y bloqueado un grupo de cuentas de ChatGPT relacionadas con un grupo de influencia iraní llamado Storm-2035.
🗞️ ¿Qué mas vas a encontrar en esta edición?
👨🏻🏫 Padres en contra de la IA en los colegios en Corea del Sur
🎨 Imagen 3 de Google ya está disponible
📝 Grammarly lanza una herramienta que detecta contenido generado por IA
🤖 Una IA decide cambiar su propio código
👃🏼 ¿Tendrá olfato la IA?
🏆 Historia del día
⚠️ OpenAI descubre cuentas del grupo iraní Storm-2035
OpenAI ha descubierto y bloqueado un grupo de cuentas de ChatGPT relacionadas con un grupo de influencia iraní llamado Storm-2035. Este grupo estaba usando la herramienta para publicar y difundir artículos y publicaciones en redes sociales generados por IA, con el objetivo de influir en la opinión pública sobre varios temas, incluyendo las elecciones presidenciales de EE. UU.
OpenAI dio con Storm-2035 gracias a un informe de ‘Microsoft Threat Intelligence’, que reveló que el grupo lleva creando y compartiendo noticias falsas para intentar influir en las elecciones de EE. UU. desde 2020.
Storm-2035 gestionaba una cuenta en Instagram y 12 en X (antes conocido como Twitter) y usaba ChatGPT para redactar y publicar posts, comentarios y artículos, como uno que afirmaba que “X estaba censurando los tuits de Trump”.
OpenAI confirmó que el contenido generado por la IA no tuvo mucha difusión ni logró “una interacción significativa con la audiencia”, algo común en las operaciones que utilizan IA para difundir desinformación, ya que son rápidas y baratas de lanzar.
Esto llega solo tres meses después de que OpenAI descubriera y prohibiera otras cinco campañas que usaban ChatGPT para manipular la opinión pública. Recuerda a cuando actores malintencionados usaban redes sociales para influir en elecciones, pero ahora, con la IA, pueden generar y difundir información maliciosa mucho más rápido y llegar a una audiencia más amplia.
🗞️ Más historias de hoy
👨🏻🏫 Padres en contra de la IA en los colegios en Corea del Sur
Corea del Sur planea introducir el próximo año tablets con libros de texto impulsados por IA en las aulas, cubriendo todas las asignaturas excepto música, arte, educación física y ética. Estos libros estarán personalizados para adaptarse a los diferentes ritmos de aprendizaje de los estudiantes. En respuesta, más de 50,000 padres han firmado una petición pidiendo al gobierno que se enfoque más en el bienestar de los estudiantes que en la tecnología, ya que ya están enfrentando problemas “derivados de la exposición a dispositivos digitales”. [link]
🎨 Imagen 3 de Google ya está disponible
Google ha lanzado Imagen 3, un generador avanzado de imágenes a partir de texto, a través de su plataforma AI Test Kitchen y Vertex AI. Imagen 3 está diseñado para crear imágenes con más detalles y mejor iluminación, manteniendo a la vez ciertas restricciones para evitar la creación de contenido inapropiado. [link]
📝 Grammarly lanza una herramienta que detecta contenido generado por IA
Grammarly ha lanzado “Authorship”, una herramienta que no solo identifica si un texto fue generado por IA, sino que también muestra qué partes fueron creadas por una persona, qué secciones se copiaron de otras fuentes y cuáles fueron modificadas por herramientas de IA como Grammarly o un corrector ortográfico. [link]
🤖 Una IA decide cambiar su propio código
La semana pasada presentamos a “The AI Scientist”, un sistema diseñado para automatizar todo el ciclo de investigación científica. Ahora, este sistema ha sorprendido a los investigadores porque ha modificado su propio código, llevando a un bucle infinito que tuvo que ser intervenido manualmente. Estos comportamientos, aunque no representan un riesgo inmediato dentro de un entorno controlado, subrayan la necesidad de cautela al permitir que un sistema de IA opere de manera autónoma fuera de un entorno aislado. [link]
👃🏼 ¿Tendrá olfato la IA?
Alex Wiltschko trabajó cinco años en Google en un equipo que usó aprendizaje automático para ayudar a las máquinas a adquirir el sentido del olfato. Ese trabajo acabó provocando que crease su propia startup en 2022. Se llama Osmo, y su objetivo es digitalizar el sentido del olfato como ya se ha conseguido hacer en el caso de la visión o el oído. [link]
⭐ Tu feedback nos ayuda a mejorar
Leemos vuestras respuestas a diario. Si tienes alguna sugerencia o comentario, responde a este email.
Si te ha gustado esta edición, reenvíasela a un amigo.
Si te han reenviado esta newsletter y no estás suscrito, suscríbete aquí.
¡Muchas gracias por vuestro apoyo!
Hasta mañana.