Los procesadores gráficos se sienten cómodos con la inteligencia artificial (IA). Muy cómodos. Más que las CPU. El motivo es que estos algoritmos se benefician de una arquitectura que prioriza el paralelismo masivo, que es precisamente lo que nos proponen las GPU, pero no las CPU. Los chips de la familia GeForce RTX de NVIDIA en particular incorporan varios subsistemas específicos que, precisamente, persiguen incrementar su rendimiento al ejecutar procesos de IA.
Los núcleos Tensor son unidades funcionales de hardware especializadas en resolver operaciones matriciales que admiten una gran paralelización. De hecho, han sido diseñados expresamente para ejecutar de forma eficiente las operaciones que requieren los algoritmos de aprendizaje profundo y la computación de alto rendimiento. Además, ejercen un rol esencial en la tecnología DLSS (Deep Learning Super Sampling), de ahí que tengan un claro protagonismo en la reconstrucción de la imagen mediante DLSS 3.
El movimiento que acaba de hacer NVIDIA tiene todo el sentido del mundo si tenemos presente lo que acabamos de repasar. Si sus GPU más recientes están preparadas para ejecutar con una suficiencia notable los algoritmos de IA ¿por qué no sacarles partido más allá de los juegos? Esto es justo lo que desde hoy nos propone esta compañía. Y es que los usuarios de las GeForce RTX 30 y 40 para PC de sobremesa o portátiles ya pueden instalar en su ordenador 'Chat with RTX', una herramienta que, de alguna forma, actúa como un ChatGPT personalizado.
Un modelo de IA personalizado a partir de nuestro propio contenido
Entender qué es y qué no es 'Chat with RTX' no es difícil. NVIDIA lo define como una aplicación que nos permite personalizar un modelo de lenguaje de gran tamaño alimentándolo con nuestro propio contenido, como, por ejemplo, documentos de texto, notas o vídeos. En la práctica esto significa que esta herramienta pone en nuestras manos un modelo de inteligencia artificial que nos va a permitir realizar consultas tomando como contexto nuestra propia información. De hecho, soporta varios tipos de archivos, como .pdf, .docx o .xml.
También podemos entregar a 'Chat with RTX' la URL de una 'playlist' de YouTube y la aplicación nos devolverá la transcripción del contenido de los vídeos
No obstante, también podemos entregarle la URL de una lista de reproducción de YouTube y la aplicación nos devolverá la transcripción del contenido de los vídeos que recoge ese repositorio. A partir de ahí podemos llevar a cabo consultas sobre el contenido de la transcripción. No pinta nada mal. Un apunte importante: todo se ejecuta de forma local, en nuestro propio PC, por lo que las consultas que hacemos son seguras en la medida en que ninguno de nuestros datos sale a internet.

Según NVIDIA 'Chat with RTX' saca partido a las unidades funcionales implementadas en las GPU GeForce RTX 30 y 40 expresamente para lidiar con los algoritmos de inteligencia artificial, como los núcleos Tensor y RT. Poner a punto la versión de prueba de esta herramienta a la que hemos tenido acceso para preparar este artículo no ha sido trivial, pero después de hacer algunos ajustes ha funcionado correctamente. Este ejemplo ilustra con claridad qué tipo de operaciones podemos llevar a cabo con esta herramienta actuando sobre nuestros datos.
Como hemos visto, la entrada que debemos proporcionar a 'Chat with RTX' debe ser una carpeta que contenga nuestros documentos .docx, .pdf o similares, o bien la URL de una lista de reproducción de YouTube. Para ponerla a prueba le entregué una carpeta en la que guardo varios documentos en PDF con mis nóminas, mi contrato laboral y otros documentos de carácter profesional, y una vez que lo indexó todo le hice preguntas acerca de mi salario, mis retenciones, etc. Y acertó. Con todo. El modelo de IA que he utilizado (la herramienta nos permite usar Mistral, que es el que he empleado, o LLaMA) funciona a las mil maravillas. Prometido.
Más información | NVIDIA
En Xataka | La IA ha disparado las previsiones de ventas de NVIDIA. Tanto que TSMC no va dar abasto de chips
Ver 6 comentarios
6 comentarios
stranno
Lo que yo sigo esperando, aún en 2024, es un desentrelazado por IA en Nvidia Maxine. Mira que las empresas de streaming parecen manejadas por monos borrachos, especialmente Prime y Atresplayer, pero es que NADIE desentrelaza un jodido DVD en condiciones. Y no te hablo de series desconocidas que, quizá, tengan una versión DVD desastrosa. Qué va, te hablo de que los Simpsons o Padre de Familia están desentrelazados como la santísima mierda en Disney+. Y mira que es fácil aplicar un desentrelazado, pero vamos, para ellos debe ser casi alquimia.
daniel3241
Maravilloso!! Todo avance tecnológico que permita un rápida evolución de la IA a mi parecer es muy buena noticia, a mucha gente le esta ayudando tanto en el campo educativo como en el laboral, esperemos que mas empresas se sumen al desarrollo de estas tecnologías tan útiles para todos.
johnnyconnor
Estaba cantado que más pronto que tarde lo iban a sacar. Espero que la compañía roja haga lo propio para no quedar descolgada en cuanto los próximos SO ya implementen IA de serie.
wiredbrain
Interesante, me pregunto que pasaría si le metes en el dataset una playlist con todos los videos de algún canal de YT divulgativo como el de Lord Draugr o alguno similar. Te puede quedar un IA de consulta muy interesante.
Orbayo
No se instala, da error y cumplo todos los requisitos. Con Windows 11 de nueva instalación.
kobos76
Alguien miente aquí. No entiendo como se puede ejecutar una IA en local con una sola grafica, cuando siempre nos han dicho que necesitan miles de gráficas. Alguien miente aquí.