Aunque a simple vista pueden parecer iguales â??dos chatbots que conversan, escriben y generan contenido multimediaâ??, lo cierto es que ChatGPT y Gemini avanzan por caminos muy distintos.Durante todo 2023, la inteligencia artificial tuvo un solo nombre: ChatGPT. Desde su lanzamiento oficial en noviembre de 2022, la herramienta de OpenAI no paró de crecer, llegando a un millón de usuarios en cinco días. Para enero de 2024 ya era un fenómeno global. Y con la llegada de GPT-4 y su integración con Copilot de Microsoft, su expansión fue meteórica.La IA en la oficina: entre los avances reales y las expectativas infladasSegún Pablo Reyes Carreño, investigador del laboratorio Log-IA de la Universidad de Salamanca y miembro del OpenAI Forum, "ChatGPT no solo fue quien popularizó el uso masivo de la IA generativa, sino que también provocó un punto de inflexión en el mundo académico, científico y empresarial. No porque fuera el primero, sino porque supo mostrar â??con una claridad comunicacional impresionanteâ?? qué significaba realmente que una máquina pudiera generar texto con fluidez, pertinencia y apariencia de autoridad".Pero ningún partido se define en el primer tiempo. Y a fines de ese mismo año, Google entró a la cancha con su propia IA. El debut, bajo el nombre Bard, pasó sin demasiado ruido. Pero con su relanzamiento como Gemini, y mejoras clave en sus funciones, empezó a emparejarse el juego.Más allá del promptA simple vista, ChatGPT y Gemini parecen cumplir funciones similares: dos asistentes que conversan, generan textos, imágenes o ideas. Pero en realidad son dos herramientas con enfoques muy diferentes.ChatGPT es una IA conversacional orientada a generar ideas, redactar textos, traducir y explicar cosas. Gemini, en cambio, es un asistente digital que responde, pero también ejecuta tareas de forma independiente: busca archivos, agenda citas, envía correos y recordatorios de forma autónoma. Detrás de esa diferencia hay dos visiones diferentes del futuro: una enfocada en democratizar el conocimiento; la otra, en automatizar la rutina.Carrito lleno, vida vacía: la trampa emocional del e-commerceChatGPT ofrece una experiencia inmediata, cómoda y accesible casi a cualquiera: un chatbot que responde rápido, con pocos errores y mediante una interfaz simple y clara. Es ideal para tareas creativas o de escritura. "Hoy es un error no usar esta herramienta al redactar un texto comercial", afirma Maïder Tomasena, fundadora de la primera escuela de copywriting en español. No se trata de delegar la tarea de creación del mensaje, sino de afinarlo. "ChatGPT sirve para redactar primeras versiones, crear variaciones de tono, destripar un concepto".Gemini, por otro lado, representa un paso más allá: busca que la inteligencia artificial deje de depender de un prompt cada vez que se la necesita. Desde junio de 2025, los usuarios de Android pueden programar tareas automáticas para que Gemini las ejecute de forma autónoma. Con una sola indicación inicial, puede enviar todos los días un resumen con los eventos de la semana y los mails que quedaron sin leer, proponer ideas para redes sociales los lunes, recomendar restaurantes los viernes o avisar el resultado apenas termina el partido. No hay que volver a pedirlo: queda agendado como rutina. Ya no se trata de un chatbot reactivo sino de un agente IA independiente.Integración invisibleLa inteligencia artificial ya no es una promesa lejana: se está metiendo en la vida cotidiana sin que lo notemos â??en buscadores, mails, mensajeros, plataformas de trabajo y celulares. Y su impacto es mucho más profundo de lo que parece a simple vista. Como señala Juliana Castillo Araujo, embajadora de Google WTM, "tendemos a subestimar su impacto sistémico a largo plazo. Aunque es fácil ser escéptico frente a las limitaciones actuales, lo difícil es ver cómo estas herramientas ya están transformando industrias, redefiniendo roles laborales e incluso cambiando la naturaleza misma de la experiencia profesional". La IA "no solo acelera tareas: está reformulando los flujos de trabajo, reduciendo la carga cognitiva y permitiendo que los profesionales se concentren en el pensamiento estratégico. El verdadero valor no está en la velocidad, sino en liberar la creatividad humana y la capacidad de tomar decisiones".En los próximos años, se espera que la inteligencia artificial se integre de forma silenciosa y masiva en los servicios que usamos todos los días. Desde responder mensajes hasta redactar mails o programar una reunión, sin necesidad de abrir otra app. La IA va camino a ser como el wifi o el GPS: una tecnología que no vemos, pero que ya no podemos dejar de usar. Según Pablo Reyes Carreño, ya "no se trata de interrogar qué pueden hacer estas herramientas, sino de discernir qué estamos dispuestos a hacer con ellas. O, aún más profundamente, de definir qué problemas consideraremos dignos de atención ahora que estas herramientas existen".¿Quién va ganando?Mientras se discute qué modelo es más potente, los números muestran una realidad contundente: ChatGPT sigue siendo la inteligencia artificial más usada del mundo. Desde fines de 2024, el uso de ChatGPT se disparó gracias a funciones virales como la generación de imágenes y videos al estilo Studio Ghibli, que incluso llevó a la app a ser la más descargada del mundo en marzo.¿Por qué crece tanto? Porque es fácil de usar, está integrada a herramientas populares como Microsoft Word, Excel y Copilot, y responde rápido. Ideas, textos, resúmenes, códigos, guiones. Todo en una sola conversación. Y lo hace bien.Si se mira el uso directo, ChatGPT parece estar muy por delante. Según un informe de Barclays citado por Business Insider, en marzo de 2025 tenía 160 millones de usuarios activos diarios. Gemini, en cambio, registraba apenas 35 millones de usuarios diarios. Esa diferencia â??más de cuatro vecesâ?? es impactante. Pero no lo cuenta todo.Cuando se amplía la mirada y se considera el ecosistema completo, el panorama cambia. Google Search, por ejemplo, sigue siendo una de las plataformas más usadas del mundo, con más de 2000 millones de usuarios activos mensuales y 1500 millones de usuarios diarios. A medida que Gemini se integra a ese buscador, a los dispositivos Android su presencia se multiplica, incluso sin que el usuario lo note.Esa estrategia â??preinstalación y distribución por defectoâ?? es una de las claves del dominio histórico de Google. Y podría jugar un papel igual de potente en el crecimiento de Gemini.La comparación, entonces, no es solo entre dos herramientas con funciones diferentes. Es entre dos filosofías: una que apuesta al crecimiento orgánico y voluntario del usuario (OpenAI), y otra que despliega su tecnología dentro de un ecosistema masivo que ya usamos todos los días (Google) casi sin pensar.
Te mostramos las configuraciones necesarias para aprovechar estas funciones impulsadas por la IA
A partir de julio, los usuarios en España pueden generar clips audiovisuales desde descripciones escritas en sus dispositivos, con marca de agua obligatoria y comprobación de origen mediante SynthID, cumpliendo con la nueva regulación
Google presentó las Gems de Gemini, una función que permite automatizar tareas usando lenguaje natural dentro de Gmail, Docs, Drive y más
Esta integración, prevista para el 7 de julio, llevará la conversación con la IA a un nivel más intuitivo y personal
La inteligencia artificial de Google da un paso más en usabilidad móvil al integrar la búsqueda musical dentro de Gemini, su asistente conversacional más avanzado
La aplicación de Gemini se ha actualizado para desplegar más ampliamente las acciones programadas en Android, que permiten a los usuarios utilizar al chatbot como un asistente en su día a día. Qué son las acciones programadas de GeminiLas acciones programadas permiten establecer acciones que Gemini realizará de manera periódica, como ofrecer un resumen de las citas guardadas en el calendario al comenzar el día o recomendaciones semanales sobre restaurantes y cafeterías nuevos en la zona para probar el fin de semana.El usuario solo tiene que pedirle a Gemini que realice una tarea a una hora específica o que convierta una solicitud en una acción recurrente.Google las anunció a principios de junio, como parte de sus planes para que Gemini se vuelva "más personal, proactivo y potente". Están disponibles para los usuarios de la aplicación Gemini con una suscripción a Google AI Pro o Ultra y planes comerciales y educativos de Google Workspace elegibles.En el portal 9to5Google informan de que su despliegue se ha ampliado con la aplicación de Android (v16.23 beta), pero no así en iOS ni en la aplicación web de Gemini.Gemini 2.5 Flash Lite, un modelo rápido y económicoLa familia de modelos de inteligencia artificial Gemini 2.5 trae novedades, ya que las versiones Pro y Flash están disponibles de manera general en la app Gemini y se ha ampliado con un nuevo integrante, más "económico y rápido": Flash Lite.Los modelos 2.5 Pro y 2.5 Flash han alcanzado la versión estable, estando ya disponibles de manera general en Google AI Studio y Vertex AI y la app Gemini, tras su presentación en mayo, en el marco del evento anual de desarrolladores de Google.Gemini 2.5 Pro está desarrollado para tareas más complejas, con un modo de pensamiento profundo que tendrá en cuenta distintas hipótesis antes de dar una respuesta. Gemini 2.5 Flash, por su parte, es más eficiente, y está diseñado para ofrecer un buen rendimiento a un precio más asequible, con mejoras en razonamiento, programación y longitud de contexto.A ellos se suma ahora Gemini 2.5 Flash Lite, el más "económico y rápido" de la familia, que admite una ventana de contexto de un millón de tokens, como informa Google en su blog oficial.Este nuevo modelo supera en programación, matemáticas, ciencias, razonamiento y capacidades multimodales a su predecesor, 2.0 Flash Lite, y ofrece una menor latencia en "tareas de alto volumen", como la traducción y la clasificación.También puede activar el pensamiento con diferentes supuestos y conectar con las herramientas de Búsqueda de Google. Actualmente, está disponible en vista preliminar en Google AI Studio y Vertex AI.
La IA se convirtió en el nuevo frente de batalla entre los gigantes tecnológicos. Mientras se define el modelo de negocio, crece la disputa por presencia, usuarios e influencia.
El modelo de lenguaje más avanzado hasta la fecha de Google, Gemini 2.5 Pro, "entra en pánico" cuando se enfrenta a situaciones de alta presión mientras juega a Pokémon Azul, de hace 25 años, lo que le provoca un deterioro perceptible en la calidad del razonamiento.El uso de videojuegos como herramienta para evaluar el desempeño de la inteligencia artificial no es una idea reciente, y empresas como Google o Anthropic han probado títulos de la saga de Pokémon con este fin.What a finish! Gemini 2.5 Pro just completed Pokémon Blue!  Special thanks to @TheCodeOfJoel for creating and running the livestream, and to everyone who cheered Gem on along the way. pic.twitter.com/E2pn3tpfEb— Sundar Pichai (@sundarpichai) May 3, 2025En este sentido, un informe reciente de Google DeepMind ha asegurado que el último modelo de lenguaje de la compañía tecnológica, Gemini 2.5 Pro, ha "simulado pánico" cuando sus pokémon se quedaban sin energía, reiterando en su línea de pensamiento "la necesidad de sanar al partido de inmediato o escapar de la mazmorra actual".Esta situación provoca "una degradación cualitativamente observable en la capacidad de razonamiento del modelo", según se recoge en el informe, lo que significa que ha empezado a tomar decisiones erráticas y poco eficientes bajo presión, al igual que le podría suceder a un humano.En concreto, Google llevó a cabo una transmisión en Twitch de estos entrenamientos de Gemini en Pokémon de la mano del desarrollador independiente Joel Zhang, para que se pudiera ver en tiempo real cómo la IA resuelve los desafíos de Pokémon Azul, un videojuego infantil de hace 25 años lanzado para GameBoy.Cómo la IA Gemini se pone nerviosa por el PokémonAsí, se llevaron a cabo dos demostraciones, en las que la diferencia principal fue la información que se le daba a Gemini. En la primera partida, se realizaron modificaciones y ajustes a medida que surgían dificultades, mientras que en la segunda prueba la IA fue completamente autónoma, sin datos previos, y actuó como si fuera un jugador completamente nuevo en el juego, que desconocía cualquier conocimiento previo.Estas pruebas demostraron que en la primera ocasión, el modelo de lenguaje de Google fue mucho más lento que en la segunda tanda, ya que redujo significativamente el tiempo requerido para completar el juego de 813 horas a 406 horas, debido a las diversas "alucinaciones" que sufrió Gemini y a las dificultades que encontró para utilizar los píxeles si procesar de la pantalla.De hecho, estos comportamientos erráticos de la IA se produjeron en "suficientes lugares como para que los miembros del chat de Twitch notaran activamente cuándo estaba ocurriendo", según precisa el texto de Google DeepMind.No obstante, el experimento también ha mostrado la gran habilidad de lo que se denomina en el informe como "herramientas agénticas" de Gemini 2.5 Pro, implementadas en el modelo por el equipo de Google para resolver tareas específicas, como pueden ser los rompecabezas de rocas del juego o encontrar rutas eficientes para llegar a un destino.Asimismo, dado que la mayoría de indicaciones para estas herramientas agénticas fueron escritas por el propio modelo, Google ha sugerido que es "bastante plausible" que Gemini 2.5 Pro sea capaz de crear estas herramientas por sí solo en un futuro, sin intervención humana.
La batalla entre Google y OpenAI se intensifica con el lanzamiento de un modelo que domina texto, imagen, video y programación
Esta función permite programar actualizaciones periódicas de partidos de fútbol o recibir un resumen de noticias cada mañana al despertar
La compañía tecnológica incorpora una herramienta que permite generar texto en vivo durante las conversaciones, mejorando la experiencia en ambientes ruidosos o donde el audio no es una opción práctica
Esta no es la primera vez que este sistema genera sospechas sobre su funcionamiento. Ya hay otro antecedente con ChatGPT
La nueva función de inteligencia artificial permite generar resúmenes automáticos de correos electrónicos largos, integrándose directamente en la bandeja de entrada
Cada vez es más grande. Cada vez es más poderosa. Cada vez parece que se nos escapa de las manos. Y no, no estamos hablando del invicto de la selección de Scaloni. Hablamos de la inteligencia artificial y del impacto cada vez mayor que tiene en nuestra vida cotidiana. Aunque su uso se multiplica día a día, todavía son muchos los que desconocen cómo funciona, para qué sirve y qué implica su avance a nivel local y global. Por eso, preparamos este resumen con las principales noticias del mundo tecnológico, pensado para acompañarte con información clara, accesible y sin tecnicismos. Un recorrido al alcance de todos, incluso de los que todavía recuerdan cómo se usaba el Nokia 1110.Gemini te la hace corta: resumirá todos tus emails largos Google anunció que su asistente con inteligencia artificial Gemini comenzará a resumir automáticamente los correos electrónicos largos, sin necesidad de que el usuario lo solicite. Los resúmenes se mostrarán en forma de tarjetas al inicio de cada mensaje y se actualizarán a medida que lleguen nuevas respuestas. Este es un nuevo paso que Google da en la incorporación de la inteligencia artificial dentro de todos sus servicios. Por el momento, esta nueva actualización solo está disponible para los correos electrónicos escritos en inglés y estará haciéndose visible dentro de las próximas semanas para todos los usuarios. Un informe de salud infantil de la Casa Blanca incluyó citas científicas falsas (y la inteligencia artificial es la primera sospechosa)El gobierno de Trump presentó un informe sobre salud infantil elaborado por la comisión Make America Healthy Again, liderada por Robert F. Kennedy Jr., que incluía múltiples referencias a estudios inexistentes, según The New York Times. Investigadores citados señalaron que nunca escribieron los trabajos mencionados y expertos sospechan que se usó inteligencia artificial para generarlos. Aunque la Casa Blanca corrigió el documento tras las críticas, persisten dudas sobre la rigurosidad del informe, que ya había generado polémica por cuestionar vacunas infantiles y por tergiversar estudios reales.Una inteligencia artificial permite detectar qué pacientes con cáncer de próstata se beneficiarán de un fármaco claveUn nuevo test basado en inteligencia artificial puede identificar a los hombres con cáncer de próstata de alto riesgo que más se beneficiarían del tratamiento con abiraterona, un fármaco que reduce a la mitad el riesgo de muerte, pero que hasta ahora no se receta ampliamente si el cáncer no se ha diseminado. De acuerdo con The Guardian, la herramienta, desarrollada por investigadores de EE.UU., Reino Unido y Suiza, analiza biopsias tumorales e identifica a ese 25% de pacientes para quienes el medicamento realmente cambia el pronóstico. El hallazgo, presentado en el mayor congreso oncológico del mundo, abre la puerta a un uso más preciso y extendido del tratamiento, evitando efectos secundarios innecesarios en quienes no lo necesitan.Un abogado de Utah, sancionado por presentar precedentes falsos generados por inteligencia artificialLa Corte de Apelaciones de Utah sancionó al abogado Richard Bednar por presentar un escrito legal que citaba precedentes judiciales inexistentes, creados por ChatGPT. El caso, que llevaba más de cinco años en disputa, fue desestimado luego de que se descubriera que el escrito incluía al menos un caso completamente inventado â??Royer v. Nelsonâ?? y otros mal citados o irrelevantes. Bednar alegó que fue un asistente quien usó la IA sin su conocimiento, y que él no revisó el documento antes de presentarlo. La corte calificó el uso irresponsable de la IA como una falta grave y lo obligó a pagar los costos del abogado contrario, devolver honorarios a su cliente y donar US$1000 a una organización sin fines de lucro.Cambios radicales en el Chicago Sun Times luego de que hayan publicado una lista de recomendaciones literarias con títulos creados por inteligencia artificial Una edición especial del Chicago Sun-Times con recomendaciones veraniegas incluyó una lista de libros falsos, generados por inteligencia artificial, y fue distribuida a miles de suscriptores sin control editorial previo. Diez de los quince títulos recomendados no existen. La sección había sido licenciada a King Features, una proveedora de contenido, pero se publicó bajo el nombre del diario. La CEO Melissa Bell pidió disculpas públicamente, asumió responsabilidad y anunció cambios: ahora todo contenido externo deberá indicar su origen, pasar por revisión editorial y cumplir con las políticas internas sobre inteligencia artificial. "Chicago Public Media no renunciará a experimentar y aprender cómo utilizar adecuadamente la IA", aseguró la lider. This is crazy:The Chicago Sun Times used ChatGPT to "write" a 2025 summer reading list but more than HALF of books don't exist.The fact that journalists aren't reading books and also using AI to write articles is sad (and scary). pic.twitter.com/7lni3WDSvF— Alex & Books ð??? (@AlexAndBooks_) May 23, 2025
En un nuevo video de Think with Google, Flavia Simon, directora de marketing para Gemini en Google, compartió sobre como la IA está cambiando el marketing
Estas herramientas de inteligencia artificial se pueden convertir en tutores de idiomas personalizados y disponibles las 24 horas
Un relevamiento en Google Trends permite conocer qué herramientas de inteligencia artificial generan más interés en búsquedas y qué consultas relacionadas realizan los usuarios
La integración de inteligencia artificial avanzada en el ecosistema de Google redefine la experiencia en vehículos y acelera la adopción de servicios de suscripción, marcando una nueva etapa en la estrategia tecnológica de Alphabet
La inteligencia artificial estará más cerca para ayudar en tareas sencillas como buscar películas o rutas
La nueva función combinará voz y video para conectar aplicaciones como Gmail y Drive
Apple también ha integrado ChatGPT de OpenAI como modelo externo en su sistema operativo
Estudiantes universitarios tienen la oportunidad de usar diferentes herramientas de inteligencia artificial de la compañía para ser más eficientes en sus tareas académicas
Google ha ampliado la disponibilidad de su modelo de generación de video de alta calidad Veo 2, que ahora está integrado en la suscripción Gemini Advanced y permite animar imágenes en el modelo experimental Whisk.Veo 2 es un modelo de generación de videos que permite crear contenidos con IA mediante indicaciones de texto. Sus resultados son de alta calidad (hasta 4K) y realismo cinematográfico, y en ellos muestra una gran comprensión de las físicas del mundo real y del movimiento humano.Los videos que se pueden crear con Veo 2 en Gemini AdvancedTras su presentación en diciembre del año pasado, Veo 2 se incorpora ahora a Gemini a través de la suscripción Gemini Advanced, donde permitirá crea un clip de video de ocho segundos con una resolución de 720 píxeles, entregado como archivo MP4 en formato apaisado 16:9.Esta novedad ha empezado a desplegarse este martes para los suscriptores de todo el mundo y en todos los idiomas que sean compatibles con Gemini. Google matiza que el uso de Veo 2 tiene un límite mensual sobre la cantidad de videos que se pueden crear.From fantasy worlds to realistic scenes, you can describe your vision in detail - characters, action, style - and watch it appear before your eyes. Find out more â?? https://t.co/AADezkfmOj pic.twitter.com/qkDFdcic3R— Google DeepMind (@GoogleDeepMind) April 15, 2025Veo 2 ya se integró en febrero en YouTube, dentro de la herramienta Dream Screen para Shorts, con el objetivo de dar a los creadores la opción de generar clips de video independientes con diferentes temas y estilos.Bring your ideas to life as shareable videos with Veo 2, rolling out in Gemini Advanced today.Veo 2 handles diverse visual styles, so you can make your banjo-playing frog look exactly the way you imagine ð??¸ pic.twitter.com/eQhdz3e3fR— Google Gemini App (@GeminiApp) April 15, 2025Animar imágenes en WhiskVeo 2 también está disponible en Whisk. En este caso, la nueva herramienta Whisk Animate del modelo experimental de Google convierte una imagen generada en un clip de hasta ocho segundos de duración. Se ha lanzado este martes para los suscriptores de Google One AI Premium de todo el mundo.Whisk también se presentó en diciembre. Es un modelo de inteligencia artificial generativa que trabaja a partir de imágenes: una para el sujeto, otra para la escena y otra para el estilo. Todas ellas se mezclan para "crear algo único y personal".
Esta tecnología permite procesar texto, imágenes, videos y audio con mayor precisión y cantidad de datos
Google ha mostrado un prototipo de gafas inteligentes Google XR, un dispositivo ligero que se conecta con el smartphone e integra el asistente de inteligencia artificial de la compañía.El responsable de Realidad Aumentada y Realidad Extendida de Google, Shahram Izadi, ha mostrado un prototipo de Google XR durante su intervención en una de las charlas TED que se celebran esta semana en Vancouver (Canadá).Izadi ha aparecido sobre el escenario con las gafas puestas, que le han servicio de apoyo durante la presentación ya que, según aseguró, con ellas veía una pequeña pantalla que le guiaba por su discurso, como han informado medios como Axios y Gadgets360.Estas gafas integran un micrófono, altavoces y una cámara para que el usuario pueda interactuar entre el plano real y el digital con ellas a través de la realidad aumentada. Se conectan al teléfono móvil, con la posibilidad de acceder a sus aplicaciones, y permiten interactuar con Gemini.Así es Project Astra, el asistente basado en Gemini 2.0 de GoogleEl directivo también ha explicado la función de Memoria, que utiliza la cámara para reconocer objetos del mundo real y responder a las preguntas sobre ellos que plantee el usuario.Su diseño recuerda al que de unos anteojos estándar, con montura negra. Al conectarse al celular , desde el que se retransmite el contenido, Izadi ha explicado que el diseño se mantiene ligero.Google desarrolla la plataforma de realidad extendida Android XR, con la que busca respaldar el desarrollo de aplicaciones basadas en esta tecnología e impulsadas con inteligencia artificial con las que interactuar mediante visores, como gafas.En ella ha introducido la inteligencia artificial de Gemini, para habilitar el control y la interacción mediante la conversación con este asistente, que puede ofrecer información en tiempo real respecto de lo que el usuario ve sobre la marcha, que se muestra directamente en la línea de visión.El ecosistema que pretende impulsar cuenta ya con el respaldo de Qualcomm, que permitirá a sus socios desarrollar nuevos dispositivos, y de Samsung, que se ha encargado de crear Proyecto Moohan, que será el primer dispositivo basado en esta plataforma que llegue al mercado.
Ramiro Sánchez, Senior Director de Marketing para Google Latinoamérica, conversó con el emprendedor, tecnólogo y autor Santiago Bilinkis sobre cómo adoptar de manera adecuada esta tecnología a la hora de enseñar y aprender
La función permite interacción directa con IA al mostrar objetos, apps o sitios web a través del celular
Google ha lanzado oficialmente las nuevas funciones para compartir pantalla o vídeo en directo en las conversaciones con Gemini Live, que ya están implementadas para los suscriptores de Gemini Advanced en dispositivos Android y que se han comenzado a extender para los usuarios de la versión gratuita en dispositivos Pixel 9 y Samsung Galaxy S25.La tecnológica anunció estas nuevas capacidades para su aplicación de chat de voz del asistente de Inteligencia Artificial (IA) el pasado mes de marzo en el marco del Mobile World Congress (MWC), cuando detalló que, basadas en el prototipo de investigación presentado en Google I/O el pasado año, Project Astra, permiten utilizar la cámara del smartphone para mostrarle al asistente un video en directo y preguntarle sobre lo que se ve en la imagen.Así fue la promoción de Project AstraAsí es Project Astra, el asistente basado en Gemini 2.0 de GoogleLa compañía comenzó a desplegar estas opciones para Gemini Live con algunos usuarios a finales de marzo y, hora, Google ha indicado que estas novedades para Gemini Live ya están totalmente integradas en los dispositivos Android de los usuarios suscritos a Gemini Advanced.Disponible gratis en los Galaxy S25 y los Pixel 9Igualmente, Google también ha anunciado que se han comenzado a extender a todos los usuarios que utilizan la aplicación Gemini Live de forma gratuita, pero solo en los dispositivos Pixel 9 y Samsung Galaxy S25.De esta forma, tal y como ha explicado Google en un comunicado, los usuarios pueden compartir la cámara o la pantalla del teléfono con Gemini y hablar sobre ello en tiempo real, con lo que permite compartir "aún más contexto", al tiempo que se habla sobre ello de forma natural en más de 45 idiomas.Qué se puede hacer con el nuevo Gemini LivePor ejemplo, con estas capacidades, los usuarios podrán apuntar la cámara de su smartphone a un cajón desordenado o a una estantería llena de libros y, a continuación, solicitar a Gemini sugerencias para clasificar dichos objetos optimizando el espacio. Incluso, el asistente puede ayudar a decidir qué objetos se pueden tirar o donar.De la misma forma, Gemini Live también podrá ayudar con proyectos creativos al compartir la pantalla del smartphone con el asistente de IA para mostrarle fotos de ideas o inspiración. Tras ello, Gemini ofrecerá diseños e ideas para escribir o crear "manualidades originales".Google también ha compartido que otra de las opciones que presentan estas funciones es utilizar Gemini Live como un asesor personal a la hora de llevar a cabo compras online. Esto se debe a que los usuarios podrán solicitar que compare ciertos productos o consejos para, por ejemplo, elegir ropa y conjuntos, mostrando las diferentes prendas a través de la cámara.Siguiendo esta línea, los usuarios también pueden compartir la pantalla de su smartphone con Gemini Live para que el asistente ofrezca comentarios prácticos sobre los últimos proyectos en los que se esté trabajando. Así, puede ofrecer consejos ya sea sobre el contenido, el diseño o la composición.Finalmente, también permite solicitar ayuda para arreglar objetos con solo enfocar la cámara con Gemini Live sobre el problema que se desee solucionar. Así, se enviarán sugerencias en tiempo real para arreglar el problema.Con todo ello, Google ha señalado que esta experiencia representa "un paso importante" hacia un asistente de IA universal que "realmente entienda e interactúe" con el mundo que rodea a los usuarios. Así, estas nuevas funciones desbloquean "un nuevo nivel de ayuda intuitiva que puede simplificar y enriquecer diferentes áreas y ofrecer posibilidades en el día a día".
La interpretación de video o imágenes en tiempo real es de gran utilidad en el campo educativo y laboral para ahorrar horas de esfuerzo
Google ha presentado Gemini 2.5 sus nuevos modelos de Inteligencia Artificial (IA) actualizados diseñados para abordar problemas "cada vez más complejos", destacando su primera versión Gemini 2.5 Pro Experimental, que supera los puntos de referencia comunes y demuestra sólidas capacidades de razonamiento y programación.Tras el lanzamiento de Gemini 2.0 en diciembre del pasado año, la compañía ha dado a conocer ahora su nueva actualización de modelos de IA Gemini 2.5, a la que se refiere como su modelo de IA "más inteligente", con capacidades para pensar y razonar sus pensamientos antes de responder, lo que se traduce en resultados con rendimiento mejorado y una mayor precisión. Un videojuego creado con un comando en Gemini 2.5En concreto, con Gemini 2.5 Google afirma haber alcanzado "un nuevo nivel de rendimiento" al combinar un modelo base "significativamente mejorado" con un posentrenamiento optimizado. Esto hace que los modelos puedan abordar problemas más complejos y dar soporte a agentes "aún más capaces y sensibles al contexto".Por tanto, tal y como ha compartido la tecnológica en un comunicado en su blog, Google planea integrar estas capacidades de pensamiento en todos sus modelos para que puedan ofrecer mejores resultados.Gemini 2.5 Pro experimentalEn este sentido, Google ha anunciado su primera versión Gemini 2.5 Pro Experimental que, dentro de los avances conseguidos con Gemini 2.5, es su modelo más avanzado para tareas complejas, superando los principales puntos de referencia para estos modelos de IA.Así, Gemini 2.5 Pro encabeza la clasificación de LMArena por un margen "significativo", lo que hace referencia a un modelo "altamente capaz y con un estilo de alta calidad", tal y como ha subrayado la compañía.Siguiendo esta línea, este modelo también lidera los estándares comunes de programación, matemáticas y ciencias, gracias a sus capacidades de razonamiento. Concretamente, según los resultados mostrados, Gemini 2.5 Pro Experimental supera a los modelos OpenAI o3-mini y GPT-4.5 DE OpenAI, Claude 3.7 Sonnet de Anthropic, Grok 3 Beta de xAI y R1 de DeepSeek, en los principales puntos de referencia comunes, que miden la comprensión, las matemáticas y la programación, entre otras capacidades.Igualmente, la tecnológica ha subrayado que Gemini 2.5 Pro se basa en la multimodalidad nativa y una amplia ventana de contexto. Esta versión cuenta con una ventana de contexto de 1 millón de tokens, aunque próximamente se ampliará a 2 millones, con un rendimiento que mejora el de las generaciones anteriores.De esta forma, puede comprender grandes conjuntos de datos y gestionar problemas complejos de distintas fuentes de información, independientemente de si se utilizan datos en forma de texto, audio, imágenes, video e incluso repositorios de código.Por otra parte, Google también ha indicado que para el desarrollo de Gemini 2.5 se han centrado en el rendimiento de la codificación, con lo que han logrado un "gran salto" respecto a la versión 2.0. Gracias a ello, Gemini 2.5 Pro destaca en la creación de aplicaciones web visualmente atractivas y aplicaciones de código para agentes, además de la transformación y edición de código.De hecho, tal y como ha mostrado Google en un video de ejemplo, Gemini 2.5 Pro puede utilizar sus capacidades de razonamiento para crear un videojuego, produciendo el código ejecutable "a partir de una única línea de solicitud".Gemini 2.5 Pro is insane at coding.It's far better than anything else I've tested.Below are ONE SHOT demos ð?§µ pic.twitter.com/ZlCTqxgeSe— MatthewBerman (@MatthewBerman) March 26, 2025Tal y como ha manifestado al respecto el director ejecutivo de Google DeepMind, Demis Hassabis, en una publicación en X (antigua Twitter), Gemini 2.5 Pro es "un modelo de vanguardia impresionante", número 1 en LMArena con una diferencia de 39 puntos ELO y con mejoras significativas en razonamiento multimodal, programación y STEM.Con todo ello, la tecnológica ha indicado que Gemini 2.5 Pro ya está disponible en Google AI Studio, así como en la aplicación de Gemini para usuarios suscritos a Gemini Advanced. Asimismo, también ha adelantado que pronto llegará a Vertex AI.
Según la compañía, esta IA es capaz de razonar mucho mejor antes de dar una respuesta y se ha optimizado para labores de programación
La herramienta tendrá acceso a la cámara en tiempo real y apoyarse en ese contenido para saber qué le interesa consultar al usuario
La familia Pixel 9 se ha ampliado con su integrante más económico, el Pixel 9a, que llega con la pantalla más brillante de la serie A hasta la fecha, hasta 30 horas de autonomía y un pequeño cambio en el diseño de la cámara que evita que sobresalga.Google ha diseñado Pixel 9a para ofrecer con él la mejor experiencia Pixel posible al mejor precio posible. Para ello, sigue la línea de diseño que sus hermanos mayores (Pixel 9, 9Pro y 9 Pro XL), con esquinas redondeadas y un módulo de cámara con forma de rectángulo redondeado.Precisamente, la compañía ha destacado este elemento como uno de los cambios que introduce el nuevo modelo de la serie A, porque ha eliminado la barra metálica que lo rodeaba y reducido su grosor, para que apenas sobresalga.La cámara principal dispone de dos lentes, una angular de 48 megapíxeles, que admite hasta ocho aumentos con la tecnología Super Res Zoom, y otra ultra gran angular de 13 megapíxeles con campo de visión de 120 grados. En la parte frontal aloja una cámara selfie de 13 megapíxeles con un campo de visión de 96,1 grados.Este modelo está equipado con el procesador Tensor G4 -el mismo presente en los otros modelos- y el coprocesador de seguridad Titan 2, así como con una batería de 5100 mAh que ofrece una autonomía de unas 30 horas con un uso estándar y cien con el modo ahorro, y cuenta con carga rápida y carga inalámbrica con certificado Qi. Tiene 8 GB de RAM y 128 o 256 GB de almacenamiento. Pixel 9a tiene las mismas funciones de seguridad que Pixel 9 y Pixel 9 Pro, como la 'Detección de accidentes' y la 'Detección de robos'. También incorpora una VPN de Google sin coste adicional y permite utilizar la función 'Encontrar mi dispositivo' para compartir la ubicación en tiempo real con amigos y familiares.Pixel 9a, además, presenta la pantalla más brillante de toda la serie A. Su pantalla Actua de 6,3 pulgadas alcanza un pico de 2700 nits, ofrece una resolución de 1.080 x 2.424 píxeles y una tasa de refresco variable de 60-120Hz.La pantalla emplea de un panel pOLED y está reforzada con vidrio Corning Gorilla Glass 3. Precisamente, Google ha diseñado este dispositivo para que dure, para lo que ofrece siete años de actualizaciones de software, de seguridad y de Pixel Drops -que introducen nuevas funciones-. También cuenta con la certificación IP68, que refleja su resistencia al agua y al polvo.Funciones inteligentes del Pixel 9aEste smartphone incorpora Gemini, que llega integrado en aplicaciones de Google como Maps, Calendario y YouTube, con el objetivo de facilitar la multitarea. Y permite usar la conversación por voz con Gemini Live.En fotografía, Pixel 9a también usa la inteligencia artificial en funciones de fotografía, como Inclúyeme, que llega por primera vez a la serie A y permite combinar dos fotos de grupo en una sola. Mejor Versión, por su parte, crea la foto de grupo perfecta, fusionando en una sola imagen las expresiones faciales de una secuencia de fotos.La función de Encuadre Automático del Editor Mágico corrige automáticamente el encuadre de tus fotos (nuevas o antiguas) y sugiere el mejor recorte e incluso puede ampliar la imagen, para captar mejor la escena. Otra función del Editor Mágico es Reimaginar, con la que se puede añadir a la foto cosas como un suelo cubierto de hierba o de hojas otoñales.Además, se mantienen el resto de funciones populares que ya conoces, como el Borrador Mágico, Borrador Mágico de Audio, Visión Nocturna, Astrofotografía y la nueva Panorámica con Visión Nocturna.Otras funciones inteligentes que incluye Pixel 9a son Rodea para Buscar, que permite lanzar una búsqueda de un elemento seleccionado en la pantalla, y 'Filtro de llamadas', exclusiva de Pixel.Pixel 9a estará disponible en el Google Store (donde también se pueden ver las nuevas fundas en colores originales) y en Mediamarkt, Amazon, El Corte Inglés, Orange y Yoigo a partir de abril, con un precio de 499 dólares o 549 euros, y en los colores Rosa peonía, Lila, Porcelana y Obsidiana.
Google ha anunciado que ha comenzado la transición del Asistente de Google a Gemini en dispositivos móviles, un servicio que llegará próximamente a smartphones con sistema operativo Android y después a tabletas, coches con Android Auto, entre otros dispositivos.La compañía ha señalado en un comunicado que, con este cambio, busca ofrecer un nuevo tipo de ayuda que solo es posible "con el poder de la Inteligencia Artificial (IA)", en palabras del director sénior de gestión de productos de Gemini, Brian Marquardt.El Asistente de Google se lanzó en 2016, con capacidades como procesamiento de lenguaje natural y tecnología de reconocimiento de voz, dos características que permitieron a los usuarios "obtener ayuda de Google de forma más natural".Casi una década después, la irrupción de la IA generativa, que "está transformando la forma de interactuar con la tecnología", ha empujado a Google a modificar su servicio y rediseñar su asistente para convertirle en el "más útil del mundo".Si bien "millones de personas" ya han cambiado el Asistente por Gemini en su día a día, en los próximos meses lo implementará como predeterminado en móviles Android, tal y como ya viene en terminales Pixel 9. Así, espera que a finales de 2025 el asistente de Google clásico deje de estar disponible para la mayoría de smartphones. Tampoco se podrá descargar en las tiendas de aplicaciones.Google ha añadido que también actualizará a Gemini las tabletas, los vehículos con Android Auto y los accesorios, como auriculares y relojes. Asimismo, la experiencia de Gemini llegará a dispositivos domésticos, como altavoces, pantallas y televisores.Google ha indicado finalmente que ha actualizado la aplicación de Gemini para que sea compatible con más de las funciones solicitadas, como la reproducción de música, la configuración de termporizadores o la ejecución de acciones desde la pantalla de bloqueo.Con ello, ha recordado que su IA dispone de funciones como Gemini Live, para conversaciones fluidas y multimodales, y Deep Research, que "convierte a Gemini en un asistente de investigación personal".Resúmenes en audioGoogle ha ampliado las capacidades colaborativas de Gemini con la integración del espacio interactivo Canvas, desde donde los usuarios podrán escribir y editar documentos o código de programación, y la transformación de documentos en un formato de audio conversacional con Audio Overview.Canvas es un espacio interactivo que permite a los usuarios colaborar y crear documentos y aplicaciones web. Permite generar un borrador y a partir de él, pedir modificaciones que el asistente realizará en tiempo real, incluso de partes concretas del texto.Dispone de herramientas de edición rápida para ajustar el tono, la extensión o el formato. Y permite exportar el contenido a Google Docs para seguir el trabajo colaborativo con otras personas, como ha explicado la compañía.Canvas también ayuda a convertir una idea en código de programación. En este espacio, el asistente ayuda a crear un prototipo funcional de aplicaciones web, scripts de Python, juegos, simulaciones y otras aplicaciones interactivas.Al igual que con el contenido en texto, Gemini ayuda al usuario en todo el proceso, haciendo correcciones en el código. Genera al instante una vista previa actualizada y, finalmente, permite compartir con otras personas el resultado.Canvas está disponible desde este martes en todo el mundo para los suscriptores de Gemini y Gemini Advanced, en todos los idiomas en los que se encuentran disponibles las aplicaciones de Gemini, lo que incluye España y el español.Audio OverviewAudio Overview es una herramienta del asistente de redacción NotebookLM que genera un programa de audio o ppdcast a partir de las notas guardadas por el usuario, que locutores de inteligencia artificial usan para exponer la información y debatir sobre ella.Google ha anunciado la integración de Audio Overview en Gemini, con un despliegue a nivel mundial que ha iniciado este martes, para los suscriptores de Gemini y Gemini Advanced. Inicialmente estará disponible en inglés, pero próximamente admitirá más idiomas.
La compañía tendrá una transición que impactará teléfonos, tabletas, relojes inteligentes, auriculares, televisores y sistemas de entretenimiento en automóviles
Google DeepMind ha presentado dos nuevos modelos que llevan la inteligencia artificial al mundo físico a través de la robótica, ambos basados en Gemini 2.0, para que los robots puedan realizar una mayor variedad de tareas complejas.La inteligencia artificial ha demostrado una serie de capacidades para resolver problemas complejos utilizando el razonamiento multimodal. Sin embargo, estos avances se han limitado al mundo digital, sin llegar a transferir estas habilidades al mundo físico.Para salvar esta brecha, Google DeepMind ha presentado Gemini Robotics y Gemini Robotics-ER, dos modelos de visión-lenguaje basados en Gemini 2.0 que permiten que los robots realicen "una gama de tareas reales más amplia que nunca", como explican en blog de la compañía.Gemini Robotics es, concretamente, un modelo avanzado de visión-lenguaje-acción (VLA) que incorpora acciones físicas como nueva modalidad para controlar directamente a los robots. Ello permite abordar tareas extremadamente complejas y de varios pasos que requieren una manipulación precisa, como plegar un origami o meter un sandwich en una bolsa con cierre de zip.Por su parte, Gemini Robotics-ER es un modelo de visión-lenguaje (VLM) con una comprensión espacial avanzada, que permite ejecutar programas utilizando el razonamiento corporal de Gemini. Con ello, mejora capacidades como la de apuntar y la detección 3D para, por ejemplo, intuir un agarre adecuado para coger una taza de café por el asa y una trayectoria segura para acercarse a ella.Además, Google DeepMind ha anunciado una asociación con Apptronik para crear la próxima generación de robots humanoides. Agile Robots, Agility Robots, Boston Dynamics y Enchanted Tools también han podido acceder a Gemini Robotics-ER.
Google ha actualizado AI Overviews con la nueva generación del modelo Gemini, que también está en la base de la nueva herramienta experimental AI Mode para dar respuesta a preguntas matizadas y multimodales.AI Overviews es una función de IA generativa que permite obtener un resumen de los resultados búsqueda de Google, impulsado por Gemini. Hasta el momento, la han usado más de mil millones de personas, según los datos de Google.La compañía tecnológica ha anunciado ahora AI Overviews está ahora impulsada por Gemini 2.0, lo que permitirá ofrecer respuestas más complejas sobre "programación, matemáticas avanzadas y consultas multimodales", como informa en su blog oficial.AI Mode, lo nuevo de las búsquedas con Google asistido por GeminiEsta novedad se ha implementado ya en Estados Unidos, se ha extendido a un mayor número de usuarios, ya que los adolescentes pueden acceder a ella sin necesidad de iniciar sesión.A ello se une un experimento que pretende ampliar lo que AI Overviews puede hacer, directamente en el Buscador: AI Mode. También aprovecha las capacidades que introduce Gemini 2.0 para que los usuarios puedan hacer preguntas matizadas, en lugar de múltiples preguntas para obtener una respuesta, con enlaces que llevan a la información."Es particularmente útil para preguntas que requieren mayor exploración, comparaciones y razonamiento", aseguran desde Google.AI Mode está disponible en Labs para los suscriptores de Google One AI Premium, y se basa en los sistemas básicos de clasificación y calidad de Google, y en la aplicación de "enfoques novedosos con las capacidades de razonamiento del modelo".
Gemini Live, la herramienta de chat de voz del asistente de inteligencia artificial de Google, ha adquirido nuevas capacidades de video y compartición de pantalla, que la compañía ha anunciado en el marco de Mobile World Congress (MWC 2025).Los usuarios de Gemini Live podrán utilizar la cámara de su smartphone Android para mostrarle al asistente un video en directo y preguntarle sobre lo que se ve en la imagen. En el ejemplo que ha compartido Google, el asistente ofrece sugerencias sobre colores y estilos, identificando claramente los elementos que se muestran.La compartición de pantalla, por su parte, facilita al usuario profundizar la búsqueda en relación con un elemento que esté en la pantalla, por ejemplo, otras prendas de ropa que complementen con un modelo de pantalón vaquero.Estas dos novedades aprovechan las capacidades multimodales de Gemini y la conversación por voz, más natural, que habilita Gemini Live.Google ha informado en una nota de prensa que estas dos funciones llegarán a los dispositivos Android el próximo mes para los suscriptores de Gemini Advanced, dentro del plan Google One AI Premium.
Amazon ha presentado Alexa Plus, una nueva versión de su asistente más conversacional, inteligente y útil, impulsado por inteligencia artificial generativa, que adquiere capacidades multimodales para completar las necesidades del usuario en su día a día.En un evento celebrado este miércoles en Nueva York (Estados Unidos), Amazon ha compartido los avances que impulsarán su asistente digital Alexa para introducirlo en la era de la IA generativa.Así es el nuevo asisntente Alexa Plus con IA generativaEl uso de Alexa se ha incrementado un 20 por ciento en 2024 respecto del año anterior y tiene millones de nuevos usuarios cada día, según el vicepresidente senior de dispositivos y servicios, Panos Panay.Panay reconoce que hablar con Alexa a veces resulta frustrante y no ayuda a los usuarios como debería. Pero esto cambia con la IA generativa, que convierte a Alexa es una especie de director de orquesta que conoce todos los elementos que intervienen en el día a día de las personas (calendario, hogar inteligente, dispositivos, entretenimiento) los une.El directivo ha dado paso así al nuevo Alexa, con una nueva arquitectura basada en IA generativa, que mejora la conversación natural con el usuario y adquiere la capacidad de realizar reservas, hacer compras, ofrecer ideas para cena como parte de una misma planificación.Se activa con solo mencionar a AlexaTodo ello se reúne bajo el nombre de Alexa Plus, una nueva experiencia más inteligente y útil, y con capacidad para comprender el entorno de usuario y el tono y el ánimo de la conversación. Además, ya no requiere el comando completo de activación ('Hey, Alexa), sino solo mencionar 'Alexa' una vez para activarlo e iniciar una conversación natural.También tiene capacidades multimodales, ya que puede interpretar el contenido de una imagen, y recuerda el contenido de la conversación. Alexa se acompaña de nuevas animaciones, llamadas Alexacons, que se muestran en la parte inferior de la pantalla de un Echo Show, y con ellos muestra la personalidad.Ofrece una mayor integración entre dispositivos conectados -por ejemplo Fire TV o las cámaras de Ring- y servicios -como Amazon Music- en el ecosistema de Amazon que se controlan durante la conversación con lenguaje natural.La directora de Alexa, Mara Segal, ha profundizado en las capacidades que la IA generativa incorpora en Alexa, similares a las que ya se han visto en otros asistentes: análisis y resumen de documentos complejos -desde PDF y correos electrónicos hasta notas escritas a mano y fotografías-. También responde a preguntas sobre el contenido y realiza acciones como introducir datos en un calendario.Funciones de Alexa para los chicosHay, además, dos características diseñadas para los niños: Explorar e Historias con Alexa, que despliegan las capacidades multimodales para inspirar y entretener a los más pequeños, por ejemplo, generando un cuento y las imágenes que lo ilustran.Alexa Plus tiene usa Amazon Bedrock para acceder a los modelos de lenguaje de gran tamaño que habilitan sus funciones, entre ellos, los de Anthropic, un socio clave para la compañía, y Amazon Nova, un nuevo modelo fundacional que busca mejorar la oferta de rendimiento y precio.Según ha explicado el vicepresidente de Alexa y Echo, Daniel Rausch, Alexa Plus usará siempre el mejor modelo para la tarea que se le pide, sin tener uno de preferencia. También tiene acceso a cientos de expertos y trabaja con decenas de miles de socios.Alexa Plus empezará a estar disponible con acceso anticipado el próximo mes. Estará incluido en la suscripción Prime, pero para el resto de usuarios tendrá un coste de 19,99 dólares mensuales.
Google ha lanzado una nueva versión de su asistente de codificación impulsado por Inteligencia Artificial (IA) Gemini Code Assist para todos los usuarios de forma gratuita, de cara a ayudar al crear y analizar código, con una capacidad de hasta 180.000 finalizaciones de código al mes.El gigante tecnológico presentó Gemini Code Assist en abril del pasado año en el marco de su evento Cloud Next'24, cuando lo definió como una herramienta de IA enfocada a empresas diseñada para agilizar la programación, con capacidades para generar, explicar y mejorar código.Ahora, de cara a facilitar esta herramienta de IA a todos los desarrolladores, ya sean estudiantes, aficionados, trabajadores autónomos o empresas emergentes, Google ha lanzado una vista previa pública de Gemini Code Assist para individuos de forma gratuita.Gemini Code Assist, el asistente de Google para crear softwareTal y como lo ha detallado Google en un comunicado en su blog, este asistente pretende facilitar el día a día de los desarrolladores, ya que, según datos recabados por la compañía, más del 75 por ciento de los usuarios que se dedican a esta labor "dependen de la IA en sus responsabilidades diarias".En este sentido, con Gemini Code Assist para individuos, cualquier usuario puede "aprender, crear fragmentos de código, depurar y modificar sus aplicaciones existentes de forma más cómoda", todo ello sin necesidad de cambiar de una ventana a otra para obtener ayuda o copiar y pegar información de fuentes desconectadas, según ha explicado el director sénior de gestión de productos de Google, Ryan J.Salva.Además, este asistente también puede corregir errores ayudando a llevar a cabo un proceso de revisión de código "eficiente y de calidad", a través de la versión preliminar pública de Gemini Code Assist para GitHub. Igualmente, puede ofrecer explicaciones de partes del código base concretas que no se entiendan y permite que los usuarios utilicen lenguaje natural para sus solicitudes.Por ejemplo, los desarrolladores pueden introducir peticiones en más de 38 idiomas como: "Construye un formulario HTML simple con campos para nombre, correo electrónico y mensaje, y luego agrega un botón 'enviar'". Tras ello, Gemini Code Assist ofrecerá el código necesario.Así, Google ha detallado que este asistente está impulsado por la IA del modelo Gemini 2.0, que ha sido perfeccionado para desarrolladores mediante "el análisis y la validación de una gran cantidad de casos de uso de codificación del mundo real". Como resultado, la calidad de los resultados y recomendaciones del asistente ha mejorado para afrontar cualquier reto.Igualmente, la tecnológica también ha subrayado la capacidad que ofrece Gemini Code Assist para sus respuestas, que es "prácticamente ilimitada" con la posibilidad de ofrecer hasta 180.000 finalizaciones de código por mes. Esta cifra supera la de otros asistentes de codificación gratuitos, que tienen límites de uso restrictivos, con 2000 finalizaciones de código al mes.Con todo ello, para comenzar a probar Gemini Code Assist, los usuarios deberán registrarse mediante una cuenta personal de Gmail e instalar la vista previa pública del asistente en Visual Studio Code, GitHub o JetBrains IDE.
Apple ha publicado la última versión beta para desarrolladores de su sistema operativo iOS 18.4, que además de incluir novedades como la función de notificaciones prioritarias, integra las capacidades de su ecosistema Apple Intelligence en otros idiomas como el español y, por tanto, extiende su uso a los usuarios de la Unión Europea.Apple Intelligence fue presentado inicialmente en la Conferencia Anual de Desarrolladores de Apple (WWDC, por sus siglas en inglés) en junio del pasado año y, tras ello, se comenzó a implementar en los dispositivos de la compañía de forma escalonada, a partir de la versión de los sistemas operativos iOS 18.1, iPadOS 18.1 y macOS Sequoia 15.1-.Estas funciones impulsadas por Inteligencia Artificial (IA) se lanzaron inicialmente en inglés para usuarios de Estados Unidos y Apple informó de que su llegada se retrasaría en los países de la UE, debido a "incertidumbres regulatorias" relacionadas con la Ley de Mercados Digitales (DMA). Asimismo, detalló que su compatibilidad con otros idiomas, incluido el español, se ampliaría mediante actualizaciones de software a lo largo del año.Ahora, con el lanzamiento de la nueva versión beta para desarrolladores iOS 18.4, que integra las funciones de Apple Intelligence en español, la tecnológica ha comenzado a probar la integración de todas sus funciones de IA en los dispositivos de los usuarios de los países de la Unión Europea, entre ellos España, "por primera vez".Apple Intelligence en el iPhone en 5 minutos (septiembre 2024)Por tanto, los últimos modelos de iPhone podrán incorporar tanto las herramientas de escritura para ayudar a los usuarios a perfeccionar sus textos con opciones para rescribir, revisar y resumir, como las opciones en la aplicación de Fotos para buscar imágenes con lenguaje natural, o eliminar objetos.Además, también dispondrán de Siri actualizado como asistente IA con mayor comprensión del lenguaje natural, y tendrán acceso a herramientas de IA generativa como Genmoji y Image Playground, entre otras funciones como los resúmenes de notificaciones, las transcripciones de llamadas o las mejoras en Apple Mail."Con las próximas actualizaciones de software, los usuarios de iPhone y iPad en la UE tendrán acceso a las funciones de Apple Intelligence por primera vez", ha detallado Apple en un comunicado en su web.Asimismo, además del español, Apple Intelligence también recibe soporte para francés, italiano, portugués, chino, japonés y coreano, por lo que Apple Intelligence también estará disponible en estas regiones con la nueva versión del sistema operativo.Siguiendo esta línea, iOS 18.4 también agrega algunas novedades, como es el caso de la función de notificaciones prioritarias, que permitirán identificar de forma más sencilla aquellas notificaciones más relevantes en el día a día.Según ha compartido 9to5Mac, esta función ofrece distintas opciones para gestionar las notificaciones, activándolas o desactivándolas para aplicaciones concretas. Tras ello, aquellas notificaciones que se hayan marcado como relevantes, se mostrarán en una sección separada en la pantalla de bloqueo, de forma que se puedan identificar rápidamente.Conviene recordar que las primeras betas están destinadas principalmente a desarrolladores, a fin de que puedan probar las funciones que ofrecen y mejorarlas de cara a su lanzamiento oficial. Asimismo, poder acceder a ellas, los interesados se deben registrar el ID de Apple para inscribirse en el programa Apple Beta Software.Así, esta versión iOS 18.4 es compatible para todos los modelos de la serie iPhone 16, así como para el iPhone 15 Pro y 15 Pro Max. Por su parte, también se han lanzado las versiones beta de macOS 15.4, que es compatible con los ordenadores Mac que integran chip M1 en adelante, e iPadOS 18.4 es compatible con los iPad con chip M1 o superior.Con todo ello, la compañía tecnológica tiene planeado lanzar las versiones oficiales de iOS e iPadOS 18.4 y macOS Sequoia 15.4 durante el próximo mes de abril.Gemini como alternativa a ChatGPTApple está trabajando en la integración del asistente de inteligencia artificial (IA) generativa de Google, Gemini, que podrá utilizarse en lugar del que desarrolla OpenAI en las consultas más complejas a Siri.ChatGPT está disponible en iOS como un complemento de Siri, el asistente virtual de Apple, una integración que la compañía anunció en junio del año pasado, en el marco de su conferencia anual de desarrolladores y que se hizo efectiva en diciembre.Con este chatbot, los usuarios de iOS tienen la opción de acceder a sus conocimientos desde Siri, para que ofrezca resultados más avanzados, y a través de 'Herramientas de Escritura', aprovechando su capacidad de comprensión de imágenes y documentos sin necesidad de cambiar de herramienta.Apple prepara ahora la integración de Gemini como chatbot de IA generativa opcional, según ha descubierto el colaborador de MacRumors Aaron Perris y compartido en X (antigua Twitter). En concreto, aparecen en el código referido a los modelos de terceros tanto Google como Gemini.La integración de Gemini no pilla por sorpresa. También en junio, el vicepresidente sénior de 'software' e ingeniería de Apple, Craig Federighi, sugirió que los usuarios podrán utilizar "en el futuro" la IA que desarrolla Google.
Al eliminar la barrera de pago, la compañía busca atraer más usuarios a Gemini, ampliando el acceso a herramientas avanzadas de análisis
Con cada nueva generación de móviles, la IA se consolida como el motor principal de la innovación, incluso más allá del hardware y software
Tres modelos de inteligencia artificial analizan cómo los años entre compañeros de vida pueden influir en la duración y felicidad de una relación. Qué dicen las cifras y los estudios