La IA prueba suerte en los juegos y en la composición musical

La IA prueba suerte en los juegos y en la composición musical

Hemos visto a la IA generativa abordar la escritura, las imágenes y los videos; ahora llega a los juegos y la música.

La filial DeepMind de Google se burló de otro modelo de IA, que un artículo de investigación de DeepMind publicado el 23 de febrero llamado «el primer entorno interactivo generativo entrenado de forma no supervisada a partir de vídeos de Internet sin etiquetar».

Comienza a jugarse un videojuego generado por IA.

Google; captura de pantalla de Lisa Lacy/CNET

En otras palabras, el modelo, llamado Genie, puede crear mundos virtuales jugables.

Los usuarios pueden ingresar texto o imágenes para generar «una variedad infinita de mundos 2D controlables por acción».

en el tweet del 26 de febrero de Tim Rocktäschel de DeepMind, los ejemplos incluyen mundos jugables hechos para que parezcan construidos con arcilla; renderizado al estilo de un boceto; y ambientado en una ciudad futurista. Rocktäschel es el líder del equipo de composición abierta de DeepMind (los algoritmos abiertos son aquellos que buscan resolver tareas cada vez más complejas).

Según un portavoz de DeepMind, cuando un usuario selecciona una acción en este modelo mundial controlable por acción, Genie genera el siguiente cuadro.

«No hay manera de saber qué parte de la imagen corresponde al personaje», afirmó. «En cambio, Genie se da cuenta de esto por sí solo durante el tiempo de entrenamiento».

La tecnología no se limita a entornos 2D. Genie podría, por ejemplo, generar simulaciones que se utilizarán para entrenar «agentes encarnados como robots», añadió el portavoz.

Desafortunadamente, probablemente no puedas probarlo tú mismo. El portavoz llamó a Genie «investigación en etapa inicial» y dijo que no está diseñado para ser un producto público.

Mientras tanto, tanto la startup de tecnología de voz ElevenLabs como Adobe han mostrado herramientas de audio generativo, aunque para sonidos diferentes.

En el primer caso, ElevenLabs se centra más en los efectos de sonido. en una publicación de blog la semana pasada, la startup dijo que puede utilizar indicaciones como «olas rompiendo», «metal chocando», «pájaros cantando» y «motor de coche de carreras» para crear audio. Sin embargo, no compartió una fecha de lanzamiento para la herramienta.

Y luego está Project Music GenAI Control de Adobe, que permite a los creadores generar música a partir de indicaciones de texto como «rock poderoso», «baile feliz» o «jazz triste» y luego editar el audio. Las opciones incluyen ajustar el tempo, la estructura y repetir patrones; intensidad creciente o decreciente; extender un clip; remezclar una sección; o generar un bucle repetible.

A Nicholas Bryan, científico investigador senior de Adobe Research, le gustó la tecnología de Photoshop para el sonido.

«En lugar de cortar manualmente la música existente para crear introducciones, finales y audio de fondo, Project Music GenAI Control podría ayudar a los usuarios a crear exactamente las piezas que necesitan», Adobe añadido en una publicación de blog del miércoles.

Adobe no especificó una fecha de lanzamiento para la herramienta.

READ  participa en el sorteo y esta poderosa PC para juegos puede ser tuya

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *