Para instalar esta aplicación en su dispositivo iOS, toque en Safari y luego seleccione Añadir a pantalla de inicio.
Estamos en vivo las 24 horas del dia
¿Formatear, agregar RAM o sacar el antivirus?; qué cosas mejoran el rendimiento real de la computadora y cuáles no
Tecno¿Formatear, agregar RAM o sacar el antivirus?; qué cosas mejoran el rendimiento real de la computadora y cuáles no
¿Formatear, agregar RAM o sacar el antivirus?; qué cosas mejoran el rendimiento real de la computadora y cuáles no
No solo las personas enfrentan días en los que el desempeño decae: las computadoras también pueden presentar momentos de lentitud o fallas que afectan la productividad. Sin embargo, no siempre las causas de estos problemas son las que se suelen asumir.
Para despejar dudas comunes, se recopilaron ocho afirmaciones frecuentes sobre el rendimiento de los equipos y se determinó cuáles son ciertas y cuáles no, con base en opiniones de expertos y análisis técnicos.
¿Formatear cada seis meses es necesario?
Esto es falso. Una de las creencias más difundidas es que formatear el computador periódicamente garantiza que funcione más rápido. Sin embargo, esto no es necesario si el equipo recibe un mantenimiento adecuado.
Los sistemas operativos actuales están preparados para conservar un buen rendimiento durante largos periodos, siempre que se realicen limpiezas, actualizaciones y ajustes periódicos. Además, contar con el respaldo de marcas que ofrecen soporte técnico especializado puede extender la vida útil del equipo.
¿El sobrecalentamiento afecta el desempeño?
Es verdadero. Cuando el procesador alcanza temperaturas elevadas, automáticamente disminuye su velocidad para evitar daños, un proceso conocido como thermal throttling. Esto tiene un impacto directo en el rendimiento general del equipo.
¿Más memoria RAM siempre soluciona la lentitud?
Es verdadero. Ampliar la memoria RAM puede mejorar el rendimiento, especialmente si la causa de la lentitud es la falta de memoria.
No obstante, si el problema radica en un procesador antiguo o un disco duro mecánico, la solución no será tan efectiva. Las computadoras modernas combinan procesadores eficientes, RAM optimizada y unidades de estado sólido (SSD) para ofrecer un funcionamiento más ágil.
¿El computador se vuelve lento después de un año?
Es falso. Con mantenimiento adecuado y componentes de calidad, un equipo puede conservar un buen desempeño por varios años. Mientras esté actualizado y cuente con soporte técnico,la computadora puede seguir funcionando con fluidez mucho más allá del primer año.
¿Los optimizadores de terceros hacen milagros?
Es falso. Muchos usuarios confían en software de terceros o modos de rendimiento esperando mejoras notables, pero estos programas solo ofrecen beneficios marginales o temporales.
Para lograr un desempeño óptimo, lo fundamental es tener un equipo equilibrado en potencia, refrigeración, almacenamiento y calidad del software nativo. La clave está en elegir un equipo que se adapte a las necesidades del usuario y aprovechar herramientas propias del sistema.
¿Cerrar programas en el Administrador de tareas mejora la velocidad?
Es falso. Cerrar procesos desde el Administrador de tareas puede parecer una solución rápida, pero es riesgoso. Si se detienen procesos del sistema, se pueden afectar funciones críticas, causando inestabilidad o incluso daños al sistema operativo. Además, esta acción no siempre mejora la velocidad del equipo.
¿El disco lleno vuelve lenta a la computadora?
Es verdadero. Tanto los discos duros tradicionales como los SSD necesitan espacio libre para operar de forma eficiente. Cuando el almacenamiento supera el 95% de su capacidad, el rendimiento se ve afectado. Lo recomendable es liberar espacio o ampliar la capacidad con un disco duro externo para evitar ralentizaciones.
¿Es mejor eliminar el antivirus para evitar lentitud?
Es falso. Aunque algunos antivirus pueden consumir recursos, eliminarlos no es la solución. El malware puede afectar seriamente el rendimiento del equipo, dañar el sistema y exponer información personal.
En vez de desinstalar el antivirus, lo mejor es buscar una alternativa más liviana que se adapte a las necesidades del usuario sin comprometer la seguridad.
“Cuando la computadora experimenta lentitud, lo más efectivo es recurrir a herramientas nativas especializadas, que permiten realizar diagnósticos precisos y optimizar el rendimiento de manera segura. Estas herramientas, integradas en el sistema operativo o proporcionadas directamente por la marca, están diseñadas para identificar y solucionar problemas específicos sin comprometer la estabilidad del equipo. Es igualmente importante aprovechar el ecosistema de soporte y soluciones adicionales que la marca ofrece”, dice ASUS.
Fuente: La nación tecno
Gmail hizo automática una función que hasta ahora era manual: crea resúmenes automáticos para las cadenas de mail largas con Gemini
TecnoGmail hizo automática una función que hasta ahora era manual: crea resúmenes automáticos para las cadenas de mail largas con Gemini
Gmail hizo automática una función que hasta ahora era manual: crea resúmenes automáticos para las cadenas de mail largas con Gemini
Los usuarios de Gmail podrán disponer de resúmenes creados automáticamente con la inteligencia artificial (IA) de Gemini para los hilos de correos más largos, que aparecerán encima del primer email y sintetizarán la información de los mensajes para agilizar su lectura.
El servicio de correo electrónico de Google incorporó el año pasado la función para resumir correos electrónicos generada por Gemini, pero era necesario activarla manualmente. A partir de este jueves, Gmail comenzará a proporcionar resúmenes de forma automática.
Resúmenes automáticos
En concreto, esta función se activará cuando los correos sean muy largos, o el intercambio de mensajes sea muy extenso, y se actualizará cada vez que se sumen más mensajes a la conversación.
El resumen aparecerá encima del primer correo de la conversación y, de momento, esta función solo está disponible en inglés para dispositivos móviles y puede tardar hasta dos semanas en aparecer, según ha informado Google en una publicación en blog de Workspace.
En el caso de no querer que Gemini muestre los resúmenes, esta opción se podrá desactivar en el apartado Funciones inteligentes de Gmail, en la configuración de la aplicación.
Del mismo modo, esta función está disponible para los usuarios suscritos a las modalidades de Business Starter, Standard y Plus, así como para la versión Enterprise Starter, Standard y Plus, y para los que hayan adquirido los complementos Gemini Education o Gemini Education Premium. Los usuarios que hayan contratado Google One AI Premium también tendrán acceso.
El pequeño fue trasladado de urgencia y permanece en terapia intensiva del hospital Orlando Alassia, en estado crítico. Investiga la fiscalía de Homicidios.
ProvincialesEl pequeño fue trasladado de urgencia y permanece en terapia intensiva del hospital Orlando Alassia, en estado crítico. Investiga la fiscalía de Homicidios.
El pequeño fue trasladado de urgencia y permanece en terapia intensiva del hospital Orlando Alassia, en estado crítico. Investiga la fiscalía de Homicidios.
Un dramático episodio conmocionó al barrio Los Troncos este sábado por la tarde, cuando un bebé de 15 meses fue hallado por sus familiares dentro de un balde de 20 litros con agua y lavandina en el patio de su vivienda, ubicada en la zona de Camino Viejo a Esperanza y Larrea, en la ciudad de Santa Fe.
El menor fue rescatado por sus propios familiares, quienes de inmediato lo trasladaron de urgencia al Hospital Iturraspe. Allí, los médicos le practicaron maniobras de reanimación cardiopulmonar (RCP) y, tras estabilizarlo momentáneamente, lo derivaron al Hospital de Niños Orlando Alassia, donde fue internado en estado crítico en la unidad de terapia intensiva (UTI).
Asfixia por inmersión y estado crítico
Según informaron fuentes hospitalarias, el pequeño sufrió un cuadro de asfixia por inmersión, lo que obligó a una rápida intervención médica. La madre del niño, una adolescente de 17 años, relató a los profesionales de salud que encontró al menor sumergido en el recipiente con agua y lavandina. La situación generó momentos de desesperación dentro del hogar familiar, motivo por el cual decidieron su traslado inmediato al centro de salud más cercano.
El caso fue comunicado a la Jefatura de la Unidad Regional I de la Policía de Santa Fe, que informó al Ministerio Público de la Acusación (MPA). Por la gravedad del hecho, el fiscal en turno de Flagrancia, Omar De Pedro, derivó el caso a la fiscalía de Homicidios, que ya se encuentra trabajando en la recolección de pruebas.
Las autoridades ordenaron la identificación de testigos y el relevamiento de imágenes de cámaras de seguridad, tanto públicas como privadas, en las inmediaciones de la vivienda, para determinar con precisión las circunstancias del suceso.
El pronóstico del menor es reservado y permanece bajo estricta vigilancia médica en la terapia intensiva del Hospital Alassia.
Fuente: Uno Santa Fe
Los integrantes del Ministerio Público Fiscal dieron por concluida la etapa de investigación previa al juicio oral contra siete procesados, entre ellos el sanjuaninos Carlos Pérez
NacionalesLos integrantes del Ministerio Público Fiscal dieron por concluida la etapa de investigación previa al juicio oral contra siete procesados, entre ellos el sanjuaninos Carlos Pérez
Los integrantes del Ministerio Público Fiscal dieron por concluida la etapa de investigación previa al juicio oral contra siete procesados, entre ellos el sanjuaninos Carlos Pérez
A pocos días de cumplirse el primer aniversario de la desaparición de Loan Danilo Peña, los fiscales del caso pidieron la elevación a juicio contra los siete procesados, entre ellos el sanjuanino Carlos Pérez, y sostuvieron la teoría de que el menor fue sustraído y ocultado hasta la actualidad.
Ahora el fallo depende Mariano Enrique de Guzmán, titular de la Fiscalía Federal de Goya, quien deberá confirmar si los imputados serán juzgados por haber secuestrado al nene de correntino de 6 años.
María Alejandra Mángano y Marcelo Colombo, titulares de la Procuraduría de Trata y Explotación de Personas, dieron a conocer detalles importantes de la investigación, se refirieron al misterio sin resolver acerca de la causa.
"Podemos afirmar que, con posterioridad al almuerzo llevado a cabo en la casa de Catalina Peña el día 13 de junio de 2024, Antonio Benítez, Daniel Ramírez, Mónica Millapi y Laudelina Peña, aprovechando que José Peña y la abuela del niño se encontraban haciendo la sobremesa conversando con el matrimonio de Carlos Pérez y Victoria Caillava; apartaron de la esfera de custodia de su padre al menor, utilizando para lograr ese cometido la excusa de ir a buscar naranjas con los otros niños", detalla el expediente, según NA.
Pronto se cumplirá un año de la desaparición de Loan.
En este escenario, describen que en el naranjal "se produjo un suceso que desencadenó en la sustracción del menor, el cual luego fue alejado del lugar y ocultado situación ésta que perdura al día de la fecha sospechándose que para ello se utilizó el vehículo Ford Ranger del matrimonio Pérez-Caillava, en el cual se hallaron rastros odoríficos del menor".
Se detalla además que, dicho delito, contó con la participación del Comisario Walter Maciel, "quien valiéndose de su cargo montó un falso escenario de búsqueda, e impartió y ejecutó distintas medidas con la finalidad entorpecer e imposibilitar el hallazgo".
La reconstrucción destaca que los niños, Loan y sus primos, fueron hasta el naranjal y que la sustracción del pequeño habría sido entre las 13:52 y las 14:25.
En ese lapso se registraron dos llamadas que los fiscales catalogan como "sumamente sospechosas: a las 14:09 hs. Ramírez, encontrándose en el naranjal, llama al teléfono de su hermana Mabel Ramírez, y conversa durante más de ocho minutos. Después de las 14:25 hs. Antonio Benítez llama a Laudelina Peña y hablan por más de nueve minutos".
"Continuando con la cronología de las comunicaciones, el primer aviso a la policía local ocurrió recién a las 15.37 horas, a partir del contacto de Caillava al teléfono particular del policía Mariano Hernán Duarte", sumaron.
Respecto a Maciel, pasó a intervenir directamente en la búsqueda del niño tiempo después, donde dio directivas a sus subalternos, disponiendo medidas y llevando a cabo diligencias, ya sea por orden del fiscal a cargo o por propia iniciativa, "todo bajo la apariencia de procurar su hallazgo cuando en realidad tuvo el verdadero objetivo de desviar y entorpecer la investigación montando para ello un supuesto escenario de búsqueda mientras se materializaba el ocultamiento del menor".
El único rastro fehaciente de Loan hallado fue el botín izquierdo que llevaba puesto el día el del almuerzo, el cual se comprobó que fue plantado en un lodazal y cuyo hallazgo se atribuyen contradictoriamente Laudelina y Macarena Peña, y Maciel.
Las fotografías tomadas por los involucrados permiten apreciar "la manipulación del calzado entre las 15:42 hs. y las 18:36 hs, momentos en los que fue enterrado y en esas casi tres horas, fue desenterrado, fotografiado en distintos escenarios y colocado nuevamente para su levantamiento".
En los primeros días de búsqueda se analizaron más de 30 rastros, entre ellos huellas, y material que se analizó como vómito o heces, todo lo cual luego "arrojó resultado negativo".
Después de rastrillar más de 25 mil hectáreas, los investigadores destacan que Loan "no se perdió como afirmaron las personas por las que aquí pedimos su procesamiento y que tampoco lo abandonaron, si no que se montó una escena para hacer creer que así había sucedido".
En la cobertura total del área rastrillada, la cual fue demarcada y delimitada por imagen satelital, se utilizó personal infante, drones con cámaras térmicas, binomios K9 con la especialidad de búsqueda de rastros, de restos humanos RH, y de vivos, caballería, helicóptero, para motor.
El análisis integral del material probatorio reunido hasta el momento permite afirmar que Benítez, Laudelina, Ramírez, Millapi, Caillava, Pérez y Maciel "intervinieron de manera coordinada en la sustracción y posterior ocultamiento de Loan", quien todavía no fue hallado a casi un año.
Tras el cierre de la pesquisa, se solicitó la elevación a juicio oral contra los procesados y ahora solo resta saber cuándo se dará inicio a uno de los debates más esperados.
Fuente: Crónica
Comenzó el mes de junio y con él confirmaron que habrá dos feriados seguidos que darán como resultado una semana laboral de solo tres días, perfecto para organizar una escapada familiar, descansar de la rutina o simplemente hacer planes tranquilos.
NacionalesComenzó el mes de junio y con él confirmaron que habrá dos feriados seguidos que darán como resultado una semana laboral de solo tres días, perfecto para organizar una escapada familiar, descansar de la rutina o simplemente hacer planes tranquilos.
Comenzó el mes de junio y con él confirmaron que habrá dos feriados seguidos que darán como resultado una semana laboral de solo tres días, perfecto para organizar una escapada familiar, descansar de la rutina o simplemente hacer planes tranquilos.
Con junio ya en marcha, muchos se preguntan cuándo llegará un nuevo fin de semana largo para cortar con la rutina, hacer una escapada cerca o planear alguna salida. En ese sentido, en los últimos días se confirmó que a mediados de mes habrá dos feriados nacionales pegados, lo que dejará una semana laboral de solo tres días y despierta la ilusión de quienes ya están organizando su calendario.
Dejando de lado lo histórico, estas fechas se convirtieron en posibilidades para estabilizar las actividades y responsabilidades diarias con los momentos de ocio y descanso. En este sentido, en el quinto mes del año llega uno de los fines de semana extra largos más esperados, con dos días de celebración que darán la oportunidad de contar con unas mini vacaciones.
Junio trae una buena noticia para quienes andan esperando un respiro, se vienen dos feriados nacionales que van a cortar la rutina justo a mitad de mes. El primero cae el lunes 16, en homenaje al General Martín Miguel de Güemes. Aunque la fecha real es el 17, como este año cae martes, lo pasan al lunes para armar un fin de semana largo.
Esto se hace gracias a la ley ley 27.399 que permite trasladar algunos feriados para que no queden en el medio de la semana. La idea es que más gente pueda aprovecharlos y tomarse un descanso sin perder días de trabajo, por lo que si una fecha cae martes o miércoles, se adelanta al lunes anterior, y si cae jueves o viernes, se pasa al lunes siguiente.
Después, llega el 20 de junio, que este año cae viernes, una de las fechas más esperadas por los ciudadanos, jornada en la que se conmemora el Día de la Bandera y se recuerda a Manuel Belgrano. Como no se mueve de fecha, por no ser considerada modificable queda justo pegado al finde y arma otro descanso ideal para quienes ya están pensando en una escapada o en quedarse en casa sin hacer nada.
Calendario de feriados para el resto del 2025
Miércoles 9 de julio – Día de la Independencia
Viernes 15 de agosto – Feriado con fines turísticos
Domingo 17 de agosto – Recuerdo del General José de San Martín
Domingo 12 de octubre – Día del Respeto a la Diversidad Cultural
Viernes 21 de noviembre – Feriado puente turístico
Lunes 24 de noviembre – Día de la Soberanía Nacional (trasladado del 20)
Lunes 8 de diciembre – Inmaculada Concepción de María
Jueves 25 de diciembre – Navidad
Las autoridades locales han instado a la población y a los turistas a respetar las prohibiciones de acceso a ciertas áreas del volcán y a mantenerse a una distancia segura de los flujos de lava.
InternacionalesLas autoridades locales han instado a la población y a los turistas a respetar las prohibiciones de acceso a ciertas áreas del volcán y a mantenerse a una distancia segura de los flujos de lava.
Las autoridades locales han instado a la población y a los turistas a respetar las prohibiciones de acceso a ciertas áreas del volcán y a mantenerse a una distancia segura de los flujos de lava.
Este lunes 2 de junio de 2025, el volcán Etna, ubicado en la isla italiana de Sicilia, entró en erupción, sorprendiendo a cientos de turistas que se encontraban en sus cercanías. La erupción generó columnas de humo, flujos de lava y material piroclástico en la ladera sureste del volcán.
Según el Instituto Nacional de Geofísica y Vulcanología (INGV) de Italia, la actividad volcánica comenzó en la madrugada del lunes a una altura de 2.800 metros, presentando características estrombolianas, es decir, explosiva pero de energía moderada. Se observan flujos de lava, gases y temblores, reflejando un incremento significativo en la actividad sísmica.
La erupción provocó la emisión de una nube de ceniza que alcanzó los 6.400 metros de altura, lo que llevó al Centro de Aviso de Cenizas Volcánicas de Toulouse a emitir una alerta roja para la aviación. A pesar de la magnitud del evento, el aeropuerto de Catania ha mantenido sus operaciones con solo algunos retrasos menores.
Las autoridades locales han instado a la población y a los turistas a respetar las prohibiciones de acceso a ciertas áreas del volcán y a mantenerse a una distancia segura de los flujos de lava. En los últimos días, muchos turistas han resultado heridos por acercarse demasiado al volcán, obligando a intervenir a los servicios de emergencia.
La historia de un gigante
Su historia eruptiva documentada se remonta a más de 2.500 años, aunque su origen geológico se estima en unos 500.000 años. El Etna ha sido testigo de innumerables erupciones a lo largo de los siglos, con ciclos de actividad que varían entre erupciones efusivas (lentas y constantes) y explosivas (más violentas).
Fue mencionado por historiadores griegos y romanos, incluyendo a Tucídides y Virgilio, y ha influido en la mitología antigua. En la mitología griega, se creía que el dios Hefesto (Vulcano) forjaba sus armas en las profundidades del Etna.
A pesar del riesgo constante, el Etna ha sido habitado desde tiempos antiguos gracias a la fertilidad de sus suelos volcánicos, ideales para cultivos como la vid, los cítricos y el olivo. Las poblaciones de sus laderas conviven con el volcán, que ha destruido pueblos enteros en ocasiones, pero también ha ofrecido recursos naturales y turísticos.
Erupciones destacadas
1669: una de las erupciones más destructivas, con flujos de lava que alcanzaron Catania.
1991-1993: una larga erupción que puso en peligro varias localidades.
2001, 2002 y 2017: episodios recientes de gran magnitud.
2021 en adelante: el volcán ha mantenido una actividad intermitente con frecuentes explosiones, ceniza y lava.
Fuente: El Litoral
La compañía tecnológica celebró como cada año el evento en el que presenta sus principales desarrollos, con especial foco en diferentes aplicaciones de inteligencia artificial. Los detalles
TecnoLa compañía tecnológica celebró como cada año el evento en el que presenta sus principales desarrollos, con especial foco en diferentes aplicaciones de inteligencia artificial. Los detalles
La compañía tecnológica celebró como cada año el evento en el que presenta sus principales desarrollos, con especial foco en diferentes aplicaciones de inteligencia artificial. Los detalles
La compañía tecnológica celebró como cada año el evento en el que presenta sus principales desarrollos, con especial foco en diferentes aplicaciones de inteligencia artificial. Los detalles
También comentó que Google procesa actualmente 480 billones de tokens al mes, contra 9,7 billones de unidades de texto o información que pasaban por sus modelos en mayo de 2024. Esto se explica por el crecimiento de la aplicación de Gemini, que ya superó los 400 millones de usuarios.
Y el objetivo de la empresa es que el uso de la IA se siga incrementando. Por ello, esta semana la integrarán en su navegador Chrome para usuarios de pago en Estados Unidos, para que Gemini pueda analizar lo que está apareciendo en un sitio web y sugerir acciones, al estilo de Copilot de Microsoft.
AI Mode
El año pasado Google presentó su función AI Overview, que ofrece respuestas generadas mediante IA que incluyen tanto información como enlaces a sitios relacionados. En su conferencia de este martes, anunciaron que ampliarán el alcance de esta herramienta, que ya fue utilizada por 1.500 millones de usuarios y compite directamente con ChatGPT de OpenAI y otras aplicaciones similares de IA.
La evolución de AI Overview es AI Mode, que ofrecerá respuestas para consultas más complejas y largas que las que habitualmente se hacen en el buscador. Se trata, según explicaron desde la compañía, de una función para procesar consultas no estructuradas en las que el usuario busca un resultado sin la necesidad de llegar a un sitio en concreto. Las respuestas, que no se presentarán como un listado de enlaces sino en formato de texto multimedia, podrá incluir tanto texto como gráficos y otros elementos.
AI Mode, que de momento solo está disponible en Estados Unidos, también sirve como un asistente inteligente para hacer compras que considera las necesidades específicas de cada usuario.
Como parte de esta nueva función, también puede simular un probador virtual de ropa a partir de una foto de nuestro cuerpo entero, sobre la que luego aplicará diferentes prendas según la elección de cada usuario y contemplando aspectos como características físicas y tipos de tela, entre otros.
Asistentes mejorados
Siguiendo con las mejoras para Gemini, usuarios de Android y iOS pueden acceder desde hoy a la versión Live de la aplicación, que permite utilizar la cámara del teléfono para capturar imágenes que luego son interpretadas por el modelo para mantener una conversación natural con el usuario.
Esto forma parte del trabajo que Google está llevando adelante para lograr que Gemini comprenda la física del mundo y se convierta así en un asistente verdaderamente potente y universal, algo que el año pasado denominaron como Project Astra.
Tecnología
20 de Mayo de 2025
Gemini en Chrome, agentes más inteligentes y generación de video mejorada: los anuncios del Google I/O 2025
La compañía tecnológica celebró como cada año el evento en el que presenta sus principales desarrollos, con especial foco en diferentes aplicaciones de inteligencia artificial. Los detalles
Por Rosario3
Google celebró su Google I/O 2025.
Anterior
Siguiente
1 de 1 |
Google celebró su Google I/O 2025.
El Google I/O 2025, el evento anual en el que el gigante tecnológico presenta las últimas novedades de sus diferentes productos y proyectos en desarrollo, tuvo lugar este martes en el Googleplex de Mountain View, California, con el foco puesto –al igual que el año pasado– en la Inteligencia Artificial (IA).
Sundar Pichai, CEO de Google, fue el encargado de subir al escenario para la apertura de la conferencia, y apuntó especialmente a la integración de la IA tanto dentro de su compañía como en la industria en general.
El director ejecutivo de una de las tecnológicas más grandes del mundo afirmó que Gemini 2.5 Pro, su modelo multimodal, se mantiene con las mejores valoraciones en diferentes tests de IA generativa frente a los desarrollos de la competencia. Destacó que mejoraron las capacidades de razonamiento, comprensión multimodal y codificación de su modelo.
Sundar Pichai, CEO de Google, durante la keynote principal del I/O 2025.
También comentó que Google procesa actualmente 480 billones de tokens al mes, contra 9,7 billones de unidades de texto o información que pasaban por sus modelos en mayo de 2024. Esto se explica por el crecimiento de la aplicación de Gemini, que ya superó los 400 millones de usuarios.
Y el objetivo de la empresa es que el uso de la IA se siga incrementando. Por ello, esta semana la integrarán en su navegador Chrome para usuarios de pago en Estados Unidos, para que Gemini pueda analizar lo que está apareciendo en un sitio web y sugerir acciones, al estilo de Copilot de Microsoft.
AI Mode
El año pasado Google presentó su función AI Overview, que ofrece respuestas generadas mediante IA que incluyen tanto información como enlaces a sitios relacionados. En su conferencia de este martes, anunciaron que ampliarán el alcance de esta herramienta, que ya fue utilizada por 1.500 millones de usuarios y compite directamente con ChatGPT de OpenAI y otras aplicaciones similares de IA.
La evolución de AI Overview es AI Mode, que ofrecerá respuestas para consultas más complejas y largas que las que habitualmente se hacen en el buscador. Se trata, según explicaron desde la compañía, de una función para procesar consultas no estructuradas en las que el usuario busca un resultado sin la necesidad de llegar a un sitio en concreto. Las respuestas, que no se presentarán como un listado de enlaces sino en formato de texto multimedia, podrá incluir tanto texto como gráficos y otros elementos.
AI Mode, que de momento solo está disponible en Estados Unidos, también sirve como un asistente inteligente para hacer compras que considera las necesidades específicas de cada usuario.
Como parte de esta nueva función, también puede simular un probador virtual de ropa a partir de una foto de nuestro cuerpo entero, sobre la que luego aplicará diferentes prendas según la elección de cada usuario y contemplando aspectos como características físicas y tipos de tela, entre otros.
Asistentes mejorados
Siguiendo con las mejoras para Gemini, usuarios de Android y iOS pueden acceder desde hoy a la versión Live de la aplicación, que permite utilizar la cámara del teléfono para capturar imágenes que luego son interpretadas por el modelo para mantener una conversación natural con el usuario.
Esto forma parte del trabajo que Google está llevando adelante para lograr que Gemini comprenda la física del mundo y se convierta así en un asistente verdaderamente potente y universal, algo que el año pasado denominaron como Project Astra.
A modo de muestra de lo que sería un caso de uso ideal, la compañía reprodujo un video en el que una persona dialoga con Gemini para que lo ayude a arreglar una bicicleta pidiéndole que busque videos en YouTube y haga una compra de repuestos, entre otras indicaciones. Se trató de algo conceptual, pero que de momento sigue siendo una idea en desarrollo y para la cual Gemini Live sería un primer paso.
Tecnología
20 de Mayo de 2025
Gemini en Chrome, agentes más inteligentes y generación de video mejorada: los anuncios del Google I/O 2025
La compañía tecnológica celebró como cada año el evento en el que presenta sus principales desarrollos, con especial foco en diferentes aplicaciones de inteligencia artificial. Los detalles
Por Rosario3
Google celebró su Google I/O 2025.
Anterior
Siguiente
1 de 1 |
Google celebró su Google I/O 2025.
El Google I/O 2025, el evento anual en el que el gigante tecnológico presenta las últimas novedades de sus diferentes productos y proyectos en desarrollo, tuvo lugar este martes en el Googleplex de Mountain View, California, con el foco puesto –al igual que el año pasado– en la Inteligencia Artificial (IA).
Sundar Pichai, CEO de Google, fue el encargado de subir al escenario para la apertura de la conferencia, y apuntó especialmente a la integración de la IA tanto dentro de su compañía como en la industria en general.
El director ejecutivo de una de las tecnológicas más grandes del mundo afirmó que Gemini 2.5 Pro, su modelo multimodal, se mantiene con las mejores valoraciones en diferentes tests de IA generativa frente a los desarrollos de la competencia. Destacó que mejoraron las capacidades de razonamiento, comprensión multimodal y codificación de su modelo.
Sundar Pichai, CEO de Google, durante la keynote principal del I/O 2025.
También comentó que Google procesa actualmente 480 billones de tokens al mes, contra 9,7 billones de unidades de texto o información que pasaban por sus modelos en mayo de 2024. Esto se explica por el crecimiento de la aplicación de Gemini, que ya superó los 400 millones de usuarios.
Y el objetivo de la empresa es que el uso de la IA se siga incrementando. Por ello, esta semana la integrarán en su navegador Chrome para usuarios de pago en Estados Unidos, para que Gemini pueda analizar lo que está apareciendo en un sitio web y sugerir acciones, al estilo de Copilot de Microsoft.
AI Mode
El año pasado Google presentó su función AI Overview, que ofrece respuestas generadas mediante IA que incluyen tanto información como enlaces a sitios relacionados. En su conferencia de este martes, anunciaron que ampliarán el alcance de esta herramienta, que ya fue utilizada por 1.500 millones de usuarios y compite directamente con ChatGPT de OpenAI y otras aplicaciones similares de IA.
La evolución de AI Overview es AI Mode, que ofrecerá respuestas para consultas más complejas y largas que las que habitualmente se hacen en el buscador. Se trata, según explicaron desde la compañía, de una función para procesar consultas no estructuradas en las que el usuario busca un resultado sin la necesidad de llegar a un sitio en concreto. Las respuestas, que no se presentarán como un listado de enlaces sino en formato de texto multimedia, podrá incluir tanto texto como gráficos y otros elementos.
AI Mode, que de momento solo está disponible en Estados Unidos, también sirve como un asistente inteligente para hacer compras que considera las necesidades específicas de cada usuario.
Como parte de esta nueva función, también puede simular un probador virtual de ropa a partir de una foto de nuestro cuerpo entero, sobre la que luego aplicará diferentes prendas según la elección de cada usuario y contemplando aspectos como características físicas y tipos de tela, entre otros.
Asistentes mejorados
Siguiendo con las mejoras para Gemini, usuarios de Android y iOS pueden acceder desde hoy a la versión Live de la aplicación, que permite utilizar la cámara del teléfono para capturar imágenes que luego son interpretadas por el modelo para mantener una conversación natural con el usuario.
Esto forma parte del trabajo que Google está llevando adelante para lograr que Gemini comprenda la física del mundo y se convierta así en un asistente verdaderamente potente y universal, algo que el año pasado denominaron como Project Astra.
A modo de muestra de lo que sería un caso de uso ideal, la compañía reprodujo un video en el que una persona dialoga con Gemini para que lo ayude a arreglar una bicicleta pidiéndole que busque videos en YouTube y haga una compra de repuestos, entre otras indicaciones. Se trató de algo conceptual, pero que de momento sigue siendo una idea en desarrollo y para la cual Gemini Live sería un primer paso.
También se anunció Project Mariner, pensado para ayudar a los usuarios a entrenar agentes de IA que hacen tareas encomendadas fuera de la plataforma (como comprar cosas en otros sitios o intercambiar información), es decir, utilizando servicios de terceros.
Se le puede pedir, por ejemplo, que busque un departamento para alquilar en base a nuestras necesidades y presupuesto. Lo que hará el agente será navegar en diferentes plataformas para registrar las opciones que encajen con las indicaciones brindadas y mostrar ese resultado.
Doblaje, respuestas inteligentes y audio expresivo
Otro de los anuncios que el CEO de Google hizo durante el evento fue que Google Meet, su aplicación para videollamadas, recibirá una actualización con la que sumó la capacidad de generar traducciones en tiempo real. Pero esto no lo hace mostrando subtítulos, sino que replica la voz de la persona que está hablando para doblar lo que dice a otro idioma con un tono similar. En principio, el servicio estará disponible para traducciones de inglés a español y viceversa para los usuarios pagos del servicio.
Smart Replies, la herramienta de generación automática de respuestas inteligentes, suma respuestas personalizadas que tendrán en cuenta el tono del usuario, su manera de escribir y detalles como la forma de despedirse en una conversación. Hasta ahora, las respuestas inteligentes eran genéricas, por lo que la novedad es que pasarán a analizar modismos y, si el usuario lo autoriza, la información almacenada en su Gmail y Drive.
También se mostraron novedades para Gemini 2.5 Flash y Pro, que pueden generar audio mucho más expresivo mediante voces sintéticas capaces de replicar susurros y diferentes tonos de voz en 24 idiomas. También indicaron que estos nuevos modelos son un 22% más eficientes, ya que requieren de menos tokens para lograr resultados similares.
También se presentaron Gemini Difussion y Deep Think, una nueva versión prototipo de Gemini 2.5 Pro, que fue entrenado para “tomarse más tiempo” para analizar la mejor respuesta para una consulta. Se basa en la utilización de pensamiento paralelo, es decir, analiza diferentes soluciones para la petición del usuario y determina cuál es la más efectiva antes de generar su respuesta.
Imagen, video y música sintética
Google presentó, además, su modelo Imagen 4, un nuevo generador de imágenes que sería "10 veces más rápido", con mejor manejo de texto y mayor comprensión de los pedidos de los usuarios.
Tecnología
20 de Mayo de 2025
Gemini en Chrome, agentes más inteligentes y generación de video mejorada: los anuncios del Google I/O 2025
La compañía tecnológica celebró como cada año el evento en el que presenta sus principales desarrollos, con especial foco en diferentes aplicaciones de inteligencia artificial. Los detalles
Por Rosario3
Google celebró su Google I/O 2025.
Anterior
Siguiente
1 de 1 |
Google celebró su Google I/O 2025.
El Google I/O 2025, el evento anual en el que el gigante tecnológico presenta las últimas novedades de sus diferentes productos y proyectos en desarrollo, tuvo lugar este martes en el Googleplex de Mountain View, California, con el foco puesto –al igual que el año pasado– en la Inteligencia Artificial (IA).
Sundar Pichai, CEO de Google, fue el encargado de subir al escenario para la apertura de la conferencia, y apuntó especialmente a la integración de la IA tanto dentro de su compañía como en la industria en general.
El director ejecutivo de una de las tecnológicas más grandes del mundo afirmó que Gemini 2.5 Pro, su modelo multimodal, se mantiene con las mejores valoraciones en diferentes tests de IA generativa frente a los desarrollos de la competencia. Destacó que mejoraron las capacidades de razonamiento, comprensión multimodal y codificación de su modelo.
Sundar Pichai, CEO de Google, durante la keynote principal del I/O 2025.
También comentó que Google procesa actualmente 480 billones de tokens al mes, contra 9,7 billones de unidades de texto o información que pasaban por sus modelos en mayo de 2024. Esto se explica por el crecimiento de la aplicación de Gemini, que ya superó los 400 millones de usuarios.
Y el objetivo de la empresa es que el uso de la IA se siga incrementando. Por ello, esta semana la integrarán en su navegador Chrome para usuarios de pago en Estados Unidos, para que Gemini pueda analizar lo que está apareciendo en un sitio web y sugerir acciones, al estilo de Copilot de Microsoft.
AI Mode
El año pasado Google presentó su función AI Overview, que ofrece respuestas generadas mediante IA que incluyen tanto información como enlaces a sitios relacionados. En su conferencia de este martes, anunciaron que ampliarán el alcance de esta herramienta, que ya fue utilizada por 1.500 millones de usuarios y compite directamente con ChatGPT de OpenAI y otras aplicaciones similares de IA.
La evolución de AI Overview es AI Mode, que ofrecerá respuestas para consultas más complejas y largas que las que habitualmente se hacen en el buscador. Se trata, según explicaron desde la compañía, de una función para procesar consultas no estructuradas en las que el usuario busca un resultado sin la necesidad de llegar a un sitio en concreto. Las respuestas, que no se presentarán como un listado de enlaces sino en formato de texto multimedia, podrá incluir tanto texto como gráficos y otros elementos.
AI Mode, que de momento solo está disponible en Estados Unidos, también sirve como un asistente inteligente para hacer compras que considera las necesidades específicas de cada usuario.
Como parte de esta nueva función, también puede simular un probador virtual de ropa a partir de una foto de nuestro cuerpo entero, sobre la que luego aplicará diferentes prendas según la elección de cada usuario y contemplando aspectos como características físicas y tipos de tela, entre otros.
Asistentes mejorados
Siguiendo con las mejoras para Gemini, usuarios de Android y iOS pueden acceder desde hoy a la versión Live de la aplicación, que permite utilizar la cámara del teléfono para capturar imágenes que luego son interpretadas por el modelo para mantener una conversación natural con el usuario.
Esto forma parte del trabajo que Google está llevando adelante para lograr que Gemini comprenda la física del mundo y se convierta así en un asistente verdaderamente potente y universal, algo que el año pasado denominaron como Project Astra.
A modo de muestra de lo que sería un caso de uso ideal, la compañía reprodujo un video en el que una persona dialoga con Gemini para que lo ayude a arreglar una bicicleta pidiéndole que busque videos en YouTube y haga una compra de repuestos, entre otras indicaciones. Se trató de algo conceptual, pero que de momento sigue siendo una idea en desarrollo y para la cual Gemini Live sería un primer paso.
También se anunció Project Mariner, pensado para ayudar a los usuarios a entrenar agentes de IA que hacen tareas encomendadas fuera de la plataforma (como comprar cosas en otros sitios o intercambiar información), es decir, utilizando servicios de terceros.
Project Mariner’s capability to understand, navigate, search, and organize is helping us towards our goal of building AI that is truly helpful in our digital lives.
Ready to explore the future of agents? ↓https://t.co/ATFRast16K pic.twitter.com/ntEBJcdaso
— Google DeepMind (@GoogleDeepMind) May 20, 2025
Se le puede pedir, por ejemplo, que busque un departamento para alquilar en base a nuestras necesidades y presupuesto. Lo que hará el agente será navegar en diferentes plataformas para registrar las opciones que encajen con las indicaciones brindadas y mostrar ese resultado.
Doblaje, respuestas inteligentes y audio expresivo
Otro de los anuncios que el CEO de Google hizo durante el evento fue que Google Meet, su aplicación para videollamadas, recibirá una actualización con la que sumó la capacidad de generar traducciones en tiempo real. Pero esto no lo hace mostrando subtítulos, sino que replica la voz de la persona que está hablando para doblar lo que dice a otro idioma con un tono similar. En principio, el servicio estará disponible para traducciones de inglés a español y viceversa para los usuarios pagos del servicio.
Smart Replies, la herramienta de generación automática de respuestas inteligentes, suma respuestas personalizadas que tendrán en cuenta el tono del usuario, su manera de escribir y detalles como la forma de despedirse en una conversación. Hasta ahora, las respuestas inteligentes eran genéricas, por lo que la novedad es que pasarán a analizar modismos y, si el usuario lo autoriza, la información almacenada en su Gmail y Drive.
También se mostraron novedades para Gemini 2.5 Flash y Pro, que pueden generar audio mucho más expresivo mediante voces sintéticas capaces de replicar susurros y diferentes tonos de voz en 24 idiomas. También indicaron que estos nuevos modelos son un 22% más eficientes, ya que requieren de menos tokens para lograr resultados similares.
También se presentaron Gemini Difussion y Deep Think, una nueva versión prototipo de Gemini 2.5 Pro, que fue entrenado para “tomarse más tiempo” para analizar la mejor respuesta para una consulta. Se basa en la utilización de pensamiento paralelo, es decir, analiza diferentes soluciones para la petición del usuario y determina cuál es la más efectiva antes de generar su respuesta.
Imagen, video y música sintética
Google presentó, además, su modelo Imagen 4, un nuevo generador de imágenes que sería "10 veces más rápido", con mejor manejo de texto y mayor comprensión de los pedidos de los usuarios.
Otra de las mejoras se aplicó para el modelo Veo 3, que ahora será capaz de generar tanto video como el audio que lo acompaña, incluyendo efectos de sonido y diálogos.
Tecnología
20 de Mayo de 2025
Gemini en Chrome, agentes más inteligentes y generación de video mejorada: los anuncios del Google I/O 2025
La compañía tecnológica celebró como cada año el evento en el que presenta sus principales desarrollos, con especial foco en diferentes aplicaciones de inteligencia artificial. Los detalles
Por Rosario3
Google celebró su Google I/O 2025.
Anterior
Siguiente
1 de 1 |
Google celebró su Google I/O 2025.
El Google I/O 2025, el evento anual en el que el gigante tecnológico presenta las últimas novedades de sus diferentes productos y proyectos en desarrollo, tuvo lugar este martes en el Googleplex de Mountain View, California, con el foco puesto –al igual que el año pasado– en la Inteligencia Artificial (IA).
Sundar Pichai, CEO de Google, fue el encargado de subir al escenario para la apertura de la conferencia, y apuntó especialmente a la integración de la IA tanto dentro de su compañía como en la industria en general.
El director ejecutivo de una de las tecnológicas más grandes del mundo afirmó que Gemini 2.5 Pro, su modelo multimodal, se mantiene con las mejores valoraciones en diferentes tests de IA generativa frente a los desarrollos de la competencia. Destacó que mejoraron las capacidades de razonamiento, comprensión multimodal y codificación de su modelo.
Sundar Pichai, CEO de Google, durante la keynote principal del I/O 2025.
También comentó que Google procesa actualmente 480 billones de tokens al mes, contra 9,7 billones de unidades de texto o información que pasaban por sus modelos en mayo de 2024. Esto se explica por el crecimiento de la aplicación de Gemini, que ya superó los 400 millones de usuarios.
Y el objetivo de la empresa es que el uso de la IA se siga incrementando. Por ello, esta semana la integrarán en su navegador Chrome para usuarios de pago en Estados Unidos, para que Gemini pueda analizar lo que está apareciendo en un sitio web y sugerir acciones, al estilo de Copilot de Microsoft.
AI Mode
El año pasado Google presentó su función AI Overview, que ofrece respuestas generadas mediante IA que incluyen tanto información como enlaces a sitios relacionados. En su conferencia de este martes, anunciaron que ampliarán el alcance de esta herramienta, que ya fue utilizada por 1.500 millones de usuarios y compite directamente con ChatGPT de OpenAI y otras aplicaciones similares de IA.
La evolución de AI Overview es AI Mode, que ofrecerá respuestas para consultas más complejas y largas que las que habitualmente se hacen en el buscador. Se trata, según explicaron desde la compañía, de una función para procesar consultas no estructuradas en las que el usuario busca un resultado sin la necesidad de llegar a un sitio en concreto. Las respuestas, que no se presentarán como un listado de enlaces sino en formato de texto multimedia, podrá incluir tanto texto como gráficos y otros elementos.
AI Mode, que de momento solo está disponible en Estados Unidos, también sirve como un asistente inteligente para hacer compras que considera las necesidades específicas de cada usuario.
Como parte de esta nueva función, también puede simular un probador virtual de ropa a partir de una foto de nuestro cuerpo entero, sobre la que luego aplicará diferentes prendas según la elección de cada usuario y contemplando aspectos como características físicas y tipos de tela, entre otros.
Asistentes mejorados
Siguiendo con las mejoras para Gemini, usuarios de Android y iOS pueden acceder desde hoy a la versión Live de la aplicación, que permite utilizar la cámara del teléfono para capturar imágenes que luego son interpretadas por el modelo para mantener una conversación natural con el usuario.
Esto forma parte del trabajo que Google está llevando adelante para lograr que Gemini comprenda la física del mundo y se convierta así en un asistente verdaderamente potente y universal, algo que el año pasado denominaron como Project Astra.
A modo de muestra de lo que sería un caso de uso ideal, la compañía reprodujo un video en el que una persona dialoga con Gemini para que lo ayude a arreglar una bicicleta pidiéndole que busque videos en YouTube y haga una compra de repuestos, entre otras indicaciones. Se trató de algo conceptual, pero que de momento sigue siendo una idea en desarrollo y para la cual Gemini Live sería un primer paso.
También se anunció Project Mariner, pensado para ayudar a los usuarios a entrenar agentes de IA que hacen tareas encomendadas fuera de la plataforma (como comprar cosas en otros sitios o intercambiar información), es decir, utilizando servicios de terceros.
Project Mariner’s capability to understand, navigate, search, and organize is helping us towards our goal of building AI that is truly helpful in our digital lives.
Ready to explore the future of agents? ↓https://t.co/ATFRast16K pic.twitter.com/ntEBJcdaso
— Google DeepMind (@GoogleDeepMind) May 20, 2025
Se le puede pedir, por ejemplo, que busque un departamento para alquilar en base a nuestras necesidades y presupuesto. Lo que hará el agente será navegar en diferentes plataformas para registrar las opciones que encajen con las indicaciones brindadas y mostrar ese resultado.
Doblaje, respuestas inteligentes y audio expresivo
Otro de los anuncios que el CEO de Google hizo durante el evento fue que Google Meet, su aplicación para videollamadas, recibirá una actualización con la que sumó la capacidad de generar traducciones en tiempo real. Pero esto no lo hace mostrando subtítulos, sino que replica la voz de la persona que está hablando para doblar lo que dice a otro idioma con un tono similar. En principio, el servicio estará disponible para traducciones de inglés a español y viceversa para los usuarios pagos del servicio.
Smart Replies, la herramienta de generación automática de respuestas inteligentes, suma respuestas personalizadas que tendrán en cuenta el tono del usuario, su manera de escribir y detalles como la forma de despedirse en una conversación. Hasta ahora, las respuestas inteligentes eran genéricas, por lo que la novedad es que pasarán a analizar modismos y, si el usuario lo autoriza, la información almacenada en su Gmail y Drive.
También se mostraron novedades para Gemini 2.5 Flash y Pro, que pueden generar audio mucho más expresivo mediante voces sintéticas capaces de replicar susurros y diferentes tonos de voz en 24 idiomas. También indicaron que estos nuevos modelos son un 22% más eficientes, ya que requieren de menos tokens para lograr resultados similares.
También se presentaron Gemini Difussion y Deep Think, una nueva versión prototipo de Gemini 2.5 Pro, que fue entrenado para “tomarse más tiempo” para analizar la mejor respuesta para una consulta. Se basa en la utilización de pensamiento paralelo, es decir, analiza diferentes soluciones para la petición del usuario y determina cuál es la más efectiva antes de generar su respuesta.
Imagen, video y música sintética
Google presentó, además, su modelo Imagen 4, un nuevo generador de imágenes que sería "10 veces más rápido", con mejor manejo de texto y mayor comprensión de los pedidos de los usuarios.
Otra de las mejoras se aplicó para el modelo Veo 3, que ahora será capaz de generar tanto video como el audio que lo acompaña, incluyendo efectos de sonido y diálogos.
También mostraron Lyria 2, un nuevo motor experimental para la generación de música mediante IA.
Flow, por su parte, es su herramienta de edición de video mediante IA, que puede crear y modificar el video para que se ajuste en tiempo y forma a lo necesita cada creador de contenido.
Expansión de Gemini
En conjunto con todos estos anuncios, Google confirmó que Gemini estará disponible en relojes con WearOS, tableros de autos con Android Auto, y en anteojos de realidad aumentada con Android XR.
Incluso anunciaron que pondrán a la venta sus propias gafas de diseño en colaboración con Warby Parker y Gentle Monster, dos marcas reconocidas de anteojos tradicionales, en una iniciativa que imita a la de Ray-Ban con Meta.
Tecnología
20 de Mayo de 2025
Gemini en Chrome, agentes más inteligentes y generación de video mejorada: los anuncios del Google I/O 2025
La compañía tecnológica celebró como cada año el evento en el que presenta sus principales desarrollos, con especial foco en diferentes aplicaciones de inteligencia artificial. Los detalles
Por Rosario3
Google celebró su Google I/O 2025.
Anterior
Siguiente
1 de 1 |
Google celebró su Google I/O 2025.
El Google I/O 2025, el evento anual en el que el gigante tecnológico presenta las últimas novedades de sus diferentes productos y proyectos en desarrollo, tuvo lugar este martes en el Googleplex de Mountain View, California, con el foco puesto –al igual que el año pasado– en la Inteligencia Artificial (IA).
Sundar Pichai, CEO de Google, fue el encargado de subir al escenario para la apertura de la conferencia, y apuntó especialmente a la integración de la IA tanto dentro de su compañía como en la industria en general.
El director ejecutivo de una de las tecnológicas más grandes del mundo afirmó que Gemini 2.5 Pro, su modelo multimodal, se mantiene con las mejores valoraciones en diferentes tests de IA generativa frente a los desarrollos de la competencia. Destacó que mejoraron las capacidades de razonamiento, comprensión multimodal y codificación de su modelo.
Sundar Pichai, CEO de Google, durante la keynote principal del I/O 2025.
También comentó que Google procesa actualmente 480 billones de tokens al mes, contra 9,7 billones de unidades de texto o información que pasaban por sus modelos en mayo de 2024. Esto se explica por el crecimiento de la aplicación de Gemini, que ya superó los 400 millones de usuarios.
Y el objetivo de la empresa es que el uso de la IA se siga incrementando. Por ello, esta semana la integrarán en su navegador Chrome para usuarios de pago en Estados Unidos, para que Gemini pueda analizar lo que está apareciendo en un sitio web y sugerir acciones, al estilo de Copilot de Microsoft.
AI Mode
El año pasado Google presentó su función AI Overview, que ofrece respuestas generadas mediante IA que incluyen tanto información como enlaces a sitios relacionados. En su conferencia de este martes, anunciaron que ampliarán el alcance de esta herramienta, que ya fue utilizada por 1.500 millones de usuarios y compite directamente con ChatGPT de OpenAI y otras aplicaciones similares de IA.
La evolución de AI Overview es AI Mode, que ofrecerá respuestas para consultas más complejas y largas que las que habitualmente se hacen en el buscador. Se trata, según explicaron desde la compañía, de una función para procesar consultas no estructuradas en las que el usuario busca un resultado sin la necesidad de llegar a un sitio en concreto. Las respuestas, que no se presentarán como un listado de enlaces sino en formato de texto multimedia, podrá incluir tanto texto como gráficos y otros elementos.
AI Mode, que de momento solo está disponible en Estados Unidos, también sirve como un asistente inteligente para hacer compras que considera las necesidades específicas de cada usuario.
Como parte de esta nueva función, también puede simular un probador virtual de ropa a partir de una foto de nuestro cuerpo entero, sobre la que luego aplicará diferentes prendas según la elección de cada usuario y contemplando aspectos como características físicas y tipos de tela, entre otros.
Asistentes mejorados
Siguiendo con las mejoras para Gemini, usuarios de Android y iOS pueden acceder desde hoy a la versión Live de la aplicación, que permite utilizar la cámara del teléfono para capturar imágenes que luego son interpretadas por el modelo para mantener una conversación natural con el usuario.
Esto forma parte del trabajo que Google está llevando adelante para lograr que Gemini comprenda la física del mundo y se convierta así en un asistente verdaderamente potente y universal, algo que el año pasado denominaron como Project Astra.
A modo de muestra de lo que sería un caso de uso ideal, la compañía reprodujo un video en el que una persona dialoga con Gemini para que lo ayude a arreglar una bicicleta pidiéndole que busque videos en YouTube y haga una compra de repuestos, entre otras indicaciones. Se trató de algo conceptual, pero que de momento sigue siendo una idea en desarrollo y para la cual Gemini Live sería un primer paso.
También se anunció Project Mariner, pensado para ayudar a los usuarios a entrenar agentes de IA que hacen tareas encomendadas fuera de la plataforma (como comprar cosas en otros sitios o intercambiar información), es decir, utilizando servicios de terceros.
Project Mariner’s capability to understand, navigate, search, and organize is helping us towards our goal of building AI that is truly helpful in our digital lives.
Ready to explore the future of agents? ↓https://t.co/ATFRast16K pic.twitter.com/ntEBJcdaso
— Google DeepMind (@GoogleDeepMind) May 20, 2025
Se le puede pedir, por ejemplo, que busque un departamento para alquilar en base a nuestras necesidades y presupuesto. Lo que hará el agente será navegar en diferentes plataformas para registrar las opciones que encajen con las indicaciones brindadas y mostrar ese resultado.
Doblaje, respuestas inteligentes y audio expresivo
Otro de los anuncios que el CEO de Google hizo durante el evento fue que Google Meet, su aplicación para videollamadas, recibirá una actualización con la que sumó la capacidad de generar traducciones en tiempo real. Pero esto no lo hace mostrando subtítulos, sino que replica la voz de la persona que está hablando para doblar lo que dice a otro idioma con un tono similar. En principio, el servicio estará disponible para traducciones de inglés a español y viceversa para los usuarios pagos del servicio.
Smart Replies, la herramienta de generación automática de respuestas inteligentes, suma respuestas personalizadas que tendrán en cuenta el tono del usuario, su manera de escribir y detalles como la forma de despedirse en una conversación. Hasta ahora, las respuestas inteligentes eran genéricas, por lo que la novedad es que pasarán a analizar modismos y, si el usuario lo autoriza, la información almacenada en su Gmail y Drive.
También se mostraron novedades para Gemini 2.5 Flash y Pro, que pueden generar audio mucho más expresivo mediante voces sintéticas capaces de replicar susurros y diferentes tonos de voz en 24 idiomas. También indicaron que estos nuevos modelos son un 22% más eficientes, ya que requieren de menos tokens para lograr resultados similares.
También se presentaron Gemini Difussion y Deep Think, una nueva versión prototipo de Gemini 2.5 Pro, que fue entrenado para “tomarse más tiempo” para analizar la mejor respuesta para una consulta. Se basa en la utilización de pensamiento paralelo, es decir, analiza diferentes soluciones para la petición del usuario y determina cuál es la más efectiva antes de generar su respuesta.
Imagen, video y música sintética
Google presentó, además, su modelo Imagen 4, un nuevo generador de imágenes que sería "10 veces más rápido", con mejor manejo de texto y mayor comprensión de los pedidos de los usuarios.
Otra de las mejoras se aplicó para el modelo Veo 3, que ahora será capaz de generar tanto video como el audio que lo acompaña, incluyendo efectos de sonido y diálogos.
También mostraron Lyria 2, un nuevo motor experimental para la generación de música mediante IA.
Flow, por su parte, es su herramienta de edición de video mediante IA, que puede crear y modificar el video para que se ajuste en tiempo y forma a lo necesita cada creador de contenido.
Expansión de Gemini
En conjunto con todos estos anuncios, Google confirmó que Gemini estará disponible en relojes con WearOS, tableros de autos con Android Auto, y en anteojos de realidad aumentada con Android XR.
Incluso anunciaron que pondrán a la venta sus propias gafas de diseño en colaboración con Warby Parker y Gentle Monster, dos marcas reconocidas de anteojos tradicionales, en una iniciativa que imita a la de Ray-Ban con Meta.
Habrá, además, un nuevo plan de suscripción además de Google AI Pro, que cuesta 20 dólares al mes: Google AI Ultra tendrá un precio de USD 250 por mes y ofrecerá acceso total a las herramientas de IA, a YouTube Premium y 30 TB de almacenamiento en la nube. Se trata de una propuesta pensada para clientes corporativos o profesionales.
Aunque la herramienta de la aplicación de mensajería instantánea no puede eliminarse por completo, existe una forma de minimizar su presencia
TecnoAunque la herramienta de la aplicación de mensajería instantánea no puede eliminarse por completo, existe una forma de minimizar su presencia
Aunque la herramienta de la aplicación de mensajería instantánea no puede eliminarse por completo, existe una forma de minimizar su presencia
Hay quienes no quieren tener Meta IA en WhatsApp. Esto se debe principalmente a que genera preocupación en tanto a la privacidad de los datos, o el simple hecho de sentirse inseguro. Por ello, los usuarios pueden tener el deseo de desactivar esta herramienta, pero muchos se preguntan si o no conviene hacerlo.
Meta IA es un sistema de inteligencia artificial con la forma de un círculo azul al que se le puede hablar como a un contacto para realizar (siempre con la conciencia y el cuidado de que se trata de una tecnología experimental) tareas como responder consultas de información variada, generar imágenes a partir de entradas textuales, sugerir recomendaciones y acceder a información en tiempo real, entre otras.
Las razones para querer eliminar Meta IA van desde preocupaciones por la intrusión de la misma —negados por la empresa—, los posibles errores en sus respuestas o simplemente la elección de tener una versión más simple de la aplicación. Para muchas personas, se trata de una función que no utilizan ni desean tener a mano, y por lo tanto, consideran que es mejor no tenerla.
¿Por qué es conveniente desactivar Meta IA?
Muchas personas pueden tener sospechas de los efectos negativos que esta app tiene sobre los usuarios y sobre la sociedad. Aunque la principal sospecha es la pérdida de privacidad informática, WhatsApp asegura que sus chats tienen un cifrado extremo a extremo que le impide leer los mensajes y analizarlos.
De cualquier manera, existen otras razones por las cuales las personas deberían pensar dos veces a la hora de utilizar esta inteligencia artificial. A continuación, las cinco más relevantes:
Impacto ambiental: el consumo de energía de las IA es gigantesco. “La próxima limitación [de la inteligencia artificial] va a ser la electricidad”, afirmó Elon Musk. Para llevarlo a números reales, la generación de una imagen en un modelo de inteligencia artificial puede consumir tanto como media carga de un smartphone, y 1000 imágenes, el equivalente a la carga completa de 522 teléfonos.
Falta de precisión de los datos: Meta IA puede dar información falsa, incluso inventada. Tomar sus respuestas como verdades es un error grave que muchas veces las personas cometen. Esto es un problema, especialmente cuando se trata de consejos médicos, por ejemplo.
Genera distracciones: esta herramienta representa una puerta de entrada más a la distracción. Instagram, TikTok, Facebook, X y WhatsApp representan un amplio campo fértil para dispersarse, y Meta IA es una opción más que ayuda a evitar hacer las tareas que realmente importan en el día a día.
Falta de creatividad: muchos usuarios usan la IA como herramienta creativa, pero en verdad, como todo sistema tecnológico de este tipo, las respuestas que ofrece tienen un mismo estilo y tono. Los textos son similares entre sí y las imágenes, de una estética reconocible. La IA y otras herramientas (como las de diseño que ofrecen plantillas, por ejemplo) no están pensadas para nada más que responder dudas básicas.
Limitación a la novedad: al tener las respuestas (verídicas o no) al alcance de la mano, las personas podrían dejar de lado la curiosidad natural del ser humano. La inteligencia artificial está programada para simplificar análisis, conceptos y generar ahorros de tiempo. La minimización de esos elementos puede achicar la profundidad de los debates, y el impacto es aún más profundo en las personas que transitan un período educativo.
Cómo desactivar el botón de Meta IA en WhatsApp
A pesar de sus funcionalidades, muchos prefieren no tener este círculo azul a mano, por lo que buscan cómo desactivar la inteligencia artificial en WhatsApp. Ya sea por incomodidad o por otras razones, hay muchos que desean no tener acceso a Meta IA entre los chats de la app. Es por ello que buscan formas de minimizar su presencia en la aplicación de mensajería.
Aunque existen maneras de hacerlo, eliminar la IA de WhatsApp por completo no es posible, ya que Meta no brinda una forma de separar ambas tecnologías. Quienes hayan interactuado con ella y no quieran seguir viendo el chat, pueden minimizar la presencia de Meta IA con un simple paso a paso:
Abrir la conversación con Meta IA en WhatsApp.
Tocar el icono de los tres puntos verticales en la esquina superior derecha (o en el menú de chats, dependiendo del celular).
Seleccionar la opción “Eliminar conversación” o “Eliminar chat”
Confirma que se desea eliminar la conversación.
Luego de este paso a paso, el usuario dejará de recibir mensajes del sistema en WhatsApp a la vez que no verá a Meta IA como una conversación entre sus contactos. Y, si desea volver a hablar con la herramienta, solamente debe buscar su nombre en la lista de contactos o iniciar una nueva conversación clickeando el ícono sobre la barra de búsqueda.
Microsoft agrega una función para crear stickers con Paint y generar texto en el Bloc de notas mediante IA generativa
TecnoMicrosoft agrega una función para crear stickers con Paint y generar texto en el Bloc de notas mediante IA generativa
Microsoft agrega una función para crear stickers con Paint y generar texto en el Bloc de notas mediante IA generativa
Microsoft ha actualizado las herramientas de Paint, Recortes y Bloc de notas, integrando nuevas funciones impulsadas por inteligencia artificial (IA) para los miembros de Windows Insiders en los canales Canary y Dev en Windows 11, con lo que permite generar stickers personalizados con Paint, capturar contenido de forma precisa con la herramienta de recortes y asistencia de escritura con IA generativa en el Bloc de notas.
Stickers a partir de una descipción
La compañía ha actualizado la herramienta de Paint a la versión 11.2504.451.0, con tres mejoras ideadas para ofrecer una experiencia más creativa para los usuarios. En primer lugar, Microsoft ha añadido un generador de stickers, una nueva función impulsada por IA que permite crear stickers personalizados con sólo describir el sticker deseado.
Según ha explicado en un comunicado en su blog, para generar un nuevo sticker, los usuarios deberán seleccionar dicha opción en el menú de Copilot e introducir la descripción de texto. Tras ello, Paint generará un conjunto de stickers en base a la descripción y los usuarios podrán seleccionar el que más se ajuste a sus necesidades. Además, se podrán compartir a través de otras aplicaciones y quedarán almacenados en el apartado de stickers generados recientemente.
La selección de objetos es otra de las funciones que Microsoft ha integrado en Paint, una herramienta inteligente que también usa IA para ayudar al usuario a aislar y editar elementos de forma individual en una imagen. No obstante, ha detallado que estas dos herramientas sólo estarán disponibles en una computadora con Copilot+.
En tercer lugar, la compañía tecnológica ha diseñado un cuadro de diálogo que ofrece una visión general de las posibilidades de Paint para ayudar a los usuarios a descubrir y conocer las funciones más recientes añadidas en la aplicación, y puede servir como punto de partida tanto para usuarios nuevos como habituales.
Captura de pantalla inteligente
En lo referente a la herramienta de recortes, se ha actualizado a la versión 11.2504.38.0, incorporando la función de Captura de pantalla perfecta, que permite capturar contenido con precisión en la pantalla mediante IA, sin necesidad de recortarlo ni redimensionarlo después de capturarlo en una computadora con Copilot+.
Asimismo, también se podrá capturar información de forma más precisa en la pantalla con el selector de color. Esta función ha sido ideada para diseñadores, desarrolladores y “cualquiera que necesite igualar rápidamente un color en la pantalla como parte de un proyecto”, según ha indicado la compañía.
Un Bloc de notas que escribe lo que querés
En cuanto al Bloc de notas, la actualización a la versión 11.2504.46.0 trae la posibilidad de escribir contenido mediante IA generativa, ayudando al usuario a redactar texto rápidamente en base a las indicaciones del texto deseado, por lo que se facilitará empezar a escribir tanto “desde una página en blanco”, como ampliando contenido con la ayuda de IA.
Microsoft ha detallado igualmente que los usuarios pueden desactivar las funciones de IA en cualquier momento, y que los suscriptores de Microsoft 365 Personal, Familia, Enterprise y Copilot Pro podrán usar créditos de IA para la función de escritura en el Bloc de notas.
Fuente: La Nación Teno
Cayeron 400 milímetros, más de cinco veces el valor de la media de precipitaciones para mayo. La región vive un desmonte sistemático desde hace 30 años y desde la Provincia señalaron el colapso de los sistemas de drenaje
ProvincialesCayeron 400 milímetros, más de cinco veces el valor de la media de precipitaciones para mayo. La región vive un desmonte sistemático desde hace 30 años y desde la Provincia señalaron el colapso de los sistemas de drenaje
Cayeron 400 milímetros, más de cinco veces el valor de la media de precipitaciones para mayo. La región vive un desmonte sistemático desde hace 30 años y desde la Provincia señalaron el colapso de los sistemas de drenaje
Los 400 milímetros (mm) que cayeron en apenas cuatro horas en la ciudad de Vera, en el norte de la provincia, dejaron bajo agua a buena parte de esa localidad. Desde el gobierno provincial mencionaron que los sistemas de drenaje colapsaron. En ese sentido, la deforestación que vive el Gran Chaco, zona en la que está contemplada el norte provincial y que perdió 7 millones de hectáreas en ese lapso, es uno de los elementos que pueden contribuir a entender por qué la zona sufrió en poco menos de dos semanas dos eventos similares y que comienzan a hacerse frecuentes en diversos sectores del país: los fenómenos climáticos más intensos.
La intensidad del fenómeno que azotó a Vera se refleja en los datos. El valor medio de precipitaciones para mayo, tomando como referencia el período 1991-2020, es de 75 milímetros. En cuatro horas, la ciudad del norte santafesino tuvo lluvias por más de 5 veces ese valor, según datos del gobierno provincial. Las consecuencias son trágicas: ya hay un fallecido confirmado por la Provincia y decenas de evacuados.
Desde Protección Civil evalúan la situación de las distintas localidades del norte santafesino porque en algunas de ellas cayeron entre 150 y 180 mm de lluvia con ingreso de agua a las viviendas, declaró el secretario de la cartera, Marcos Escajadillo.
“Hubo un colapso de todo el sistema de drenaje, con agua en prácticamente toda la ciudad. Desde el domingo venimos informando a todos los intendentes y presidentes comunales sobre estos alertas para que tomaran todas las medidas de prevención, pero se vieron superados en el nivel de drenaje”, agregó.
Las lluvias intensas comenzaron en la región hace varios días. El 17 de mayo, en Villa Ocampo (a unos 150 kilómetros al norte de Vera) cayeron unos 250 mm en pocas horas, tres veces más que la media para mayo, por lo que el gobierno también tuvo que activar un operativo de emergencia. En la ciudad, el agua afectó a barrios enteros y hubo que evacuar a varios vecinos. En otras localidades del departamento también sufrieron las consecuencias, como en El Sombrerito a unos 25 kilómetros hacia el norte de Villa Ocampo, que cuenta con apenas 1.200 habitantes y tuvo que hacerle frente a 230 mm de lluvia.
El colapso mencionado por el funcionario se da en un contexto de creciente deforestación en esa región, que contribuye, además, al calentamiento global por la pérdida de vegetación que ayudar a disminuir los impactos de fenómenos climáticos más intensos, que son consecuencia de diversos factores como la emisión de gases de efecto invernadero y, justamente, la deforestación, entre otros factores.
Deforestación
La falta de contención para esos fenómenos es multicausal pero hay factores que, a primera vista, pueden explicar cómo el agua escurre sin parar y los territorios no alcanzan a absorber la lluvia caída.
El Gran Chaco, una extensa región que abarca zonas de Bolivia, Paraguay y buena parte del norte argentino (dentro de la cual está contemplada la mitad norte de Santa Fe), viene sufriendo la pérdida sistemática de bosques desde hace varios años.
El coordinador de la Campaña de Bosques de Greenpeace, Hernán Giardini, explicó a La Capital que se deben tener en cuenta los impactos acumulados de las 7 millones de hectáreas que se perdieron en los últimos 30 años en la región. Según los últimos datos, de 2023, de la Unidad de Manejo del Sistema de Evaluación Forestal, dependiente de la Dirección Nacional de Bosques, Chaco y Santiago del Estero lideran la lista de provincias en donde más deforestación hubo dentro de la región del Gran Chaco, con 57.893 y 42.889 hectáreas, respectivamente. Cabe destacar que Santa Fe es una de las últimas dentro de la región, con 1.814 hectáreas desmontadas en 2023.
"Estamos en una situación de emergencia forestal", señaló, para agregar: "El 75% de las hectáreas que se perdieron fueron en Salta, Santiago del Estero, Chaco y Formosa. Esa deforestación impacta no sólo en términos de pérdida de biodiversidad sino también en su contribución a la crisis climática".
"El bosque funciona como una esponja natural y la deforestación acumulada impacta sobre las cuencas. La pendiente que tiene Argentina, de oeste a este, también puede generar un aumento del caudal de agua que bajan a los ríos pero además un aumento de las superficies que se empiezan a inundar, incluso en zonas lejanas de los desmontes", detalló Giardini.
Eventos más intensos por el cambio climático
Las consecuencias del cambio climático se manifiestan con eventos como los que ocurrieron en Vera, Campana o Bahía Blanca.
Esta afirmación se desprende del Sexto Informe de Evaluación realizado por el Panel Intergubernamental sobre Cambio Climático (IPCC), elaborado entre 2015 y 2023, en el que se resalta, entre otras cuestiones, cómo el cambio climático es un factor fundamental en el incremento de la intensidad de los fenómenos meteorológicos que se vienen repitiendo en Argentina.
En el informe se detalla que el sudeste de Sudamérica presenta una tendencia creciente en la magnitud y frecuencia de lluvias extremas. Además, añade que durante el período 1950-2014 se manifestó una tendencia positiva en las precipitaciones estivales en toda la región, con un aumento que va de 2,8 a 3,5 mm por mes y década.
El documento señala que estas condiciones irán empeorando conforme se acentúe el calentamiento global. En ese sentido, 2024 fue el año más caluroso registrado a nivel histórico, batiendo el récord de 2023, tras superar en 1,55º la temperatura media del período preindustrial, fijado entre 1850 y 1900.
Fuente: Uno Santa Fe

Con excepción de su ciego alineamiento con Estados Unidos e Israel, el Presidente argentino insiste en aislarse del mundo desarrollado y en desarrollo.
Leer nota completa en el diario
Cristiano Rattazzi afirmó que a los bonaerenses "toda la vida les enseñaron que su vida era narcotráfico o robar o un plan” y abogó por la reforma laboral.
Leer nota completa en el diario
La ex Gran Hermano y el exfuncionario condenado por abuso sexual harán su boda en el departamento donde el exgobernador cumple con la prisión domiciliaria.
Leer nota completa en el diario
En Corrientes, donde dio el discurso inaugural del congreso de una fundación libertaria, el Presidente dijo que ahora "están dadas las condiciones para que Argentina entre en un nuevo siglo de oro”.
Leer nota completa en el diario
Detectar la enfermedad a tiempo puede prevenir complicaciones graves y permite iniciar un tratamiento que mejore la calidad de vida.
Leer nota completa en el diario
La tarjeta permite usar saldo negativo como crédito de emergencia en el transporte público. Conocé cuánto es el saldo extra habilitado en noviembre.
Leer nota completa en el diario
Este documento es fundamental en todo el país y busca reducir los accidentes viales. Los detalles en la nota.
Leer nota completa en el diario
El incidente pcurrió en la Escuela Primaria N° 80 de City Bell y la Policía tomó intervención.
Leer nota completa en el diario
Se amplió hasta el 30 de diciembre el período para ingresar al régimen de facilidades de Ganancias y fijó una tasa del 1% mensual para quienes regularicen su situación antes de fin de noviembre.
Leer nota completa en el diario
INDEC dio a conocer la inflación de octubre, teniendo un impacto directo en las prestaciones de ANSES. Los detalles en la nota.
Leer nota completa en el diario
Para solicitarlo, se deben seguir una serie de requisitos establecidos. El monto se deposita en la cuenta bancaria declarada. Los detalles en la nota.
Leer nota completa en el diario
Con excepción de su ciego alineamiento con Estados Unidos e Israel, el Presidente argentino insiste en aislarse del mundo desarrollado y en desarrollo.
Leer nota completa en el diario
WhatsApp informó que limitará su servicio a celulares en celulares que posean sistemas operativos más antiguos. Acá la lista completa de los aparatos en los que ya no se podrá utilizar.
Leer nota completa en el diario
El esperado videojuego modifica nuevamente su fecha de estreno. La compañía asegura que busca garantizar un producto “a la altura de las expectativas” y evitar errores.
Leer nota completa en el diario
Miles de personas no pudieron acceder a la versión de escritorio del servicio, mientras la aplicación móvil funcionó con normalidad.
Leer nota completa en el diario
Elon Musk aseguró que busca desplazar a Wikipedia a la que acusó de no ser objetiva y tener un sesgo político de izquierda. No reveló sin embargo las fuentes que utilizará Grokipedia para elaborar sus respuestas.
Leer nota completa en el diario

Descripcin: Todo el rock naciona e internacional
Locutor: Nani
Da: Viernes
Hora: 21:00:00 - 23:00:00
Descripcin: Magazine diario
Locutor: Fabián Chesa
Da: Lunes, Martes, Miércoles, Jueves, Viernes
Hora: 10:00:00 - 12:00:00






.png)








