Aviso a los jugadores de Pokémon Go: están utilizando tus fotos para hacer un mundo paralelo con Inteligencia Artificial

Publicado el: 2 de abril de 2026 a las 12:42
Síguenos
Logo de Pokémon GO, juego de Niantic cuyos datos de imágenes se usan para crear mapas 3D con inteligencia artificial.

El 10 de marzo de 2026, Niantic Spatial anunció una alianza con Coco Robotics para mejorar cómo se mueven robots de reparto en ciudades reales. El plan es usar un sistema que se apoya en la cámara y en un mapa 3D para ubicarse cuando el GPS se vuelve poco fiable entre edificios altos.

Detrás hay una idea muy de calle. Si alguna vez has apuntado con el móvil a una estatua para ver un Pokémon en realidad aumentada, ya conoces el gesto básico. La novedad es que ese tipo de imágenes también puede servir para entrenar modelos de inteligencia artificial que reconocen lugares.

Qué es Niantic Spatial

En 2025, Niantic vendió su negocio de videojuegos a Scopely, incluyendo Pokémon Go y otros títulos de realidad aumentada. El cierre de la operación se anunció como completado el 29 de mayo de 2025.

En paralelo, Niantic anunció que su tecnología geoespacial se convertiría en Niantic Spatial, liderada por John Hanke. La empresa sostiene que su Large Geospatial Model se apoya en una base de datos propia de más de 30.000 millones de imágenes para construir un «modelo del mundo» pensado para orientar a personas y máquinas.

Un mapa que funciona con cámara

El Visual Positioning System, o VPS, es la pieza que conecta una foto con el mapa. Según la documentación de Niantic Spatial, el sistema compara lo que ve el dispositivo con su mapa y devuelve posición y orientación, algo parecido a cuando una app reconoce una canción, pero aplicado a un rincón de tu barrio.

Niantic presentó este enfoque en el mundo de la realidad aumentada, donde hace falta que un objeto virtual quede «clavado» en el sitio correcto. La misma lógica se traslada a la robótica, porque un robot también necesita ubicarse para moverse con seguridad y no acabar en la acera de al lado.

La prueba con robots de reparto

Niantic Spatial dice que desplegará su VPS para ayudar a mantener la geolocalización cuando el GPS falla en «cañones urbanos», esas calles donde los edificios altos complican la señal. John Hanke lo resumió con una frase, «La promesa de la robótica de última milla es enorme, pero moverse por calles urbanas caóticas es uno de los desafíos de ingeniería más duros». Zach Rash, consejero delegado y cofundador de Coco, añadió que el acuerdo les da acceso a servicios de localización «fiables» para mejorar la navegación.

En su web, Coco afirma haber producido alrededor de 1.000 robots y superar el millón de millas recorridas en entregas. Es un dato que suena abstracto, pero se entiende rápido si piensas en repartos cortos repetidos miles de veces al día.

«Última milla» es el tramo final del reparto, el que va del restaurante o tienda hasta tu portal. Y «localización» en robótica no es solo saber la calle, también es llegar al punto exacto donde hay que parar, girar o cruzar. Centímetros importan.

De los escaneos al modelo del mundo

Parte del debate nace de una pregunta obvia. ¿De dónde salen los datos que permiten reconocer un lugar con una foto? Niantic explicó en noviembre de 2024, en un texto firmado por Eric Brachmann y Victor Adrian Prisacariu, que usa escaneos aportados por jugadores en ubicaciones públicas y que esa función es opcional y requiere que la persona decida escanear.

Niantic Spatial describe el modelo como una reconstrucción 3D que mezcla datos terrestres, aéreos y de satélite, y que puede actualizarse con nuevas capturas de flotas de máquinas. En la práctica, eso permitiría una «memoria» espacial compartida que varios robots consultan mientras trabajan.

En marzo de 2026, el director técnico Brian McClendon explicó a MIT Technology Review que tienen más de un millón de ubicaciones en las que pueden localizar con precisión de varios centímetros y saber hacia dónde apunta la cámara. La primera prueba con Coco se hará con robots de última milla que ya operan en varias ciudades de Estados Unidos y en Helsinki. Es la clase de detalle que cambia una experiencia de realidad aumentada y también un reparto, sobre todo cuando el destino es una puerta concreta.

Privacidad y consentimiento

Cuando una tecnología depende de cámara y ubicación, la pregunta llega sola. ¿Qué se captura exactamente y con qué permiso? No es raro que mucha gente solo lo piense cuando la noticia salta, no cuando está intentando atrapar un Pikachu.

También hay un matiz importante entre usar la cámara para mostrar realidad aumentada y enviar un escaneo para mejorar un mapa. En la práctica, son funciones distintas y no siempre se perciben igual desde fuera. Ahí es donde la transparencia suele marcar la diferencia.

Al final del día, esta historia va de cómo la realidad aumentada y la robótica empiezan a compartir el mismo mapa. Si la tecnología funciona como prometen, puede ayudar a que los robots se orienten mejor en ciudades complicadas. Y si no se explica bien, también puede alimentar desconfianza.

La nota de prensa principal se ha publicado en Niantic Spatial.

Techy44

Redacción Techy44 by Okdiario. Grupo de periodistas dedicados a divulgar noticias sobre tecnología, ciberseguridad, informatica, inteligencia artificial y juegos.

Deja un comentario