Por si no lo sabías, la mayoría de las aplicaciones que usamos tipo chatbot funcionan en la nube.
La IA va a llegar a los móviles pronto (a lo mejor se ve alguno ya en el MWC en Barcelona) pero el horizonte de la IA nativa en un ordenador parecía lejano hasta que Nvidia ha hecho este anuncio.
Chat with RTX
Esta innovación de Nvidia, «Chat con RTX», parece que será una herramienta fundamental en la democratización de la IA al meter dentro de los ordenadores directamente la IA. A diferencia de los servicios de IA basados en la nube como Microsoft Copilot y ChatGPT, la IA de Nvidia aprovecha el procesamiento local en el hardware del PC, lo que marca un profundo cambio en cómo se accede a las herramientas de IA y cómo las utilizaremos.
¿Qué implicaciones trae este avance de Nvidia?
- Rendimiento del procesamiento local. Tener a la IA directamente en el pc ejecutándose a través de las GPU RTX podría ser mucho más eficiente que depender de la nube para todo. El modelo de procesamiento local de la IA de Nvidia aborda las crecientes preocupaciones sobre la privacidad de los datos en la era digital. Al eliminar la necesidad de subir datos a la nube, ofrece una alternativa segura a las herramientas de IA basadas en la nube tradicionales.
- Datos más seguros. Otro aspecto importante es que la capacidad de procesamiento en local también permitiría una mejora de la privacidad y seguridad de los datos personales de los usuarios.
- Mayor potencia de análisis y resumen de contenidos. Por lo visto en las pruebas de Chat with RTX las capacidades de resumir contenidos de diversas fuentes, Youtube incluido, son realmente increíbles.
Pero claro todo esto se podrá realizar con GPUs de Nvidia que no es que sean precisamente baratas.
Además por ahora es una prueba piloto, no han publicado ningún tipo de promoción sobre un hardware específico que vaya a salir al mercado, así que tocará esperar.
De cualquier manera es un paso adelante hacia acercar todavía más la IA al usuario.