Google lo tiene muy claro: su nuevo servicio de IA es igual de seguro que el procesamiento local. ¿Será verdad?

Google está mejorando el procesamiento local en sus teléfonos Pixel, pero todavía no son lo suficientemente potentes como para ejecutar ciertas tareas

Google lo tiene muy claro: su nuevo servicio de IA es igual de seguro que el procesamiento local. ¿Será verdad?
Google Private AI Compute | Imagen de Google
Publicado en Google

Montar en casa tu propio sistema de inteligencia artificial es relativamente fácil: Tan solo necesitas un ordenador o servidor y una buena guía. El principal inconveniente son los requisitos de hardware, que varían dependiendo del modelo. No es lo mismo querer ejecutar Llama 4 que Midjourney, por ejemplo. Para obtener un buen rendimiento, lo ideal es contar con una CPU de Intel o AMD de última generación, 32 GB de memoria RAM (o más) y una tarjeta gráfica de NVIDIA relativamente reciente (o varias, en caso de cargas bastante pesadas).

El precio de un equipo con estas características puede ser de varios miles de euros, tranquilamente. Y las posibilidades que ofrecerá no serán las mismas que los sistemas alojados en la nube de OpenAI (ChatGPT), Microsoft (Copilot), Google (Gemini) o xAI (Grok), que están preparados para tareas bastante exigentes. Es por eso que las mencionadas compañías piden un pago mensual o anual para acceder a ciertas características o expandir sus límites.

Si bien estamos acostumbrados a la nube por la comodidad y versatilidad que presenta, no está exenta de peligros. Existe el riesgo a que nuestros datos se pierdan o sean robados por hackers, además de ser espiados por las grandes tecnológicas y gobiernos. Si existe un fallo que desemboca en un funcionamiento errático, es posible que no se pueda acceder a ellos durante un tiempo. En otras palabras: la seguridad en la nube no es la misma que en local. No obstante, Google asegura que su nuevo sistema sí que lo es.

En teoría, nadie, ni Google, podría acceder a los datos de los usuarios con su nuevo sistema

El nuevo entorno de nube segura de Google, llamado 'Private AI Compute', está diseñado para impulsar mejores experiencias de inteligencia artificial sin sacrificar la privacidad de los usuarios. La propuesta del gigante de Internet es similar a la de Apple: se ejecuta en una "pila de Google integrada" impulsada por las unidades de procesamiento tensorial (TPU) personalizadas. Estos chips tienen elementos seguros integrados, y el innovador sistema permite que los dispositivos se conecten directamente al espacio protegido a través de un enlace.

Las TPU de Google se basan en un entorno de ejecución de confianza (TEE) basado en AMD que cifra y aísla la memoria del host. En teoría, esto significaría que nadie más, ni siquiera Google, puede acceder a los datos. Google afirma que un análisis independiente realizado por NCC Group muestra que la computación de IA privada cumple con sus estrictas directrices de privacidad.

En palabras de la propia Google, su servicio de computación de IA privada es tan seguro como usar el procesamiento local en los dispositivos. No obstante, la nube de Google tiene mucha más potencia de procesamiento que cualquier ordenador o dispositivo móvil doméstico, de modo que los interesados pueden hacer uso de los modelos Gemini más avanzados de la compañía.

Este sistema sería un buen complemento para los Pixel y otros teléfonos móviles que utilizan procesadores Gemini Nano, los cuales permiten procesar cargas de trabajo de IA de forma segura sin enviar datos a Internet. Como las NPU no pueden hacerlo todo, saber que al ejecutar ciertas tareas que requieren conexión con servidores externos la seguridad está garantizada, es un gran alivio para los usuarios.

Para ti
Queremos saber tu opinión. ¡Comenta!