OpenAI ha explicado cuándo usar en ChatGPT los cinco modelos que ha presentado hasta la fecha, como son GPT-4o, o3, o4-mini, o4-mini-high y GPT-4.5, para que sea más fácil para los usuarios.La tecnológica liderada por Sam Altman emitió un documento explicativo el pasado 3 de mayo en el que proporciona una descripción general de todos los modelos disponibles y cuándo usar uno sobre otro.El texto está dirigido especialmente para las empresas, aunque también puede ser útil para los usuarios regulares.Cuándo usar GPT-4o y cuándo GPT-4.5 en ChatGPTEn primer lugar, según el documento, el modelo GPT-4o es el "modelo omni" con información en tiempo real, y debe utilizarse para resumir contenidos, generar ideas o enviar correos electrónicos. Al ser un multimodal completo, se pueden utilizar casi todas las funciones, desde GPT personalizado hasta generación de imágenes, audio avanzado y análisis de datos.En cambio, GPT-4.5 se contempla como "ideal" para tareas creativas y ofrece mejor inteligencia emocional, comunicación y un enfoque intuitivo para la lluvia de ideas.Cuándo usar GPT-o4 o GPT-o3Por otro lado, ChatGPT ofrece tres modelos de razonamiento a los usuarios habituales. Según el documento, o4-mini es rápido para tareas técnicas, como consultas rápidas relacionadas con STEM, programación y razonamiento visual.El modelo 04-mini-high es mejor en tareas técnicas detalladas, como codificación avanzada, matemáticas, explicaciones científicas y mayor precisión.A diferencia de estos dos, el modelo o3 se destaca en tareas complejas o de múltiples pasos, como planificación estratégica, análisis detallados, codificación extensa, matemáticas avanzadas, ciencias, codificación y razonamiento visual.
La coorporación abandonó su intento de reestructuración para obtener financiamiento de SoftBank
El CEO de OpenAI, Sam Altman, anunció que su empresa planea lanzar en los próximos meses un "nuevo y potente modelo de lenguaje abierto con capacidad de razonamiento". Esto marcaría un cambio importante para una compañía que ha mantenido sus modelos en secreto desde 2019. El anuncio no fue una sorpresa total: después del impactante lanzamiento en enero del modelo chino de código abierto DeepSeek-R1, Altman dijo durante una sesión de preguntas en Reddit que se dio cuenta de que su empresa estaba "del lado equivocado de la historia" y sugirió que un modelo open source de OpenAI era una posibilidad real.Los modelos abiertos suelen contar con una licencia permisiva que exige poco o ningún pago al desarrollador del modelo. Para las empresas que buscan aprovechar la IA, los modelos abiertos pueden ser más rentables, ya que permiten alojar (y proteger) los modelos por cuenta propia, evitando el riesgo â??a menudo delicadoâ?? de enviar datos confidenciales a través de una API a un proveedor externo y pagar tarifas por ello. Cada vez más compañías están optando por este camino, especialmente aquellas que manejan datos sensibles de usuarios en industrias reguladas.El truco: un usuario corporativo no tiene que pagar para utilizar un modelo abierto. Algunos laboratorios de IA publican modelos abiertos para ganar credibilidad en el mercado, lo que potencialmente les allana el camino para luego vender acceso a sus modelos cerrados más potentes vía API. Al lanzar modelos abiertos desde el principio, la empresa francesa Mistral se consolidó como un laboratorio de IA de primer nivel y como una alternativa legítima frente a los actores estadounidenses. Algunos laboratorios ofrecen modelos de código abierto y luego obtienen ingresos mediante consultorías que ayudan a grandes empresas a implementar y optimizar estos modelos con el tiempo.Los modelos Llama de Meta son los modelos "abiertos" más ampliamente implementados, aunque la compañía restringe su reutilización y redistribución, y mantiene en secreto los datos de entrenamiento y el código, por lo que técnicamente no son de código abierto. Meta tiene motivos distintos para liberar sus modelos. A diferencia de Mistral y otros, su modelo de negocio se basa en vigilar a los usuarios y dirigirles publicidad, no en alquilar modelos de IA. Zuckerberg continúa financiando la investigación de Llama porque estos modelos son una fuerza disruptiva en la industria y le otorgan a Meta el derecho de autodefinirse como una "empresa de IA".Ahora OpenAI tiene sus propias razones para lanzar un modelo abierto. Hace dieciocho meses, OpenAI era el campeón indiscutido de los modelos de IA de vanguardia. Pero desde entonces, la aparición de modelos de lenguaje como el poderoso Gemini 2.0 de Google y el R1 de código abierto de DeepSeek ha abierto la competencia por completo.El mercado ha cambiado, y OpenAI también ha evolucionado. Al igual que Meta, OpenAI ya no depende directa y exclusivamente de sus modelos para generar ingresos. Vender acceso a sus modelos mediante API ya no es su principal fuente de ingresos. Hoy, la mayoría de sus ganancias â??y también su impresionante valuación de 300.000 millones de dólaresâ?? provienen de las suscripciones a ChatGPT (en su mayoría, adquiridas por consumidores individuales). El verdadero superpoder de OpenAI es haberse convertido en una marca de inteligencia artificial reconocida a nivel masivo por los consumidores.OpenAI sin duda seguirá destinando enormes recursos al desarrollo de modelos cada vez más avanzados, pero su principal motivación para hacerlo ya no es cobrarle a los desarrolladores por acceder directamente a ellos, sino continuar haciendo que ChatGPT sea cada vez más inteligente para los usuarios.
OpenAI ha retirado la última actualización de su modelo GPT-4o debido a que presenta fallos que ocasionaban una personalidad "demasiado aduladora y molesta" en la experiencia de uso, y trabaja en una solución para aumentar la honestidad y transparencia.La tecnológica liderada por Sam Altman presentó su modelo de Inteligencia Artificial (IA) GPT-4o en mayo del pasado año, con capacidades para aceptar cualquier combinación de texto, audio e imagen, además de aportar respuestas con una velocidad similar a un tiempo de respuesta humano.Aunque este modelo ya está ampliamente disponible, OpenAI ha revertido la última actualización lanzada de GPT-4o, debido a que presenta un fallo que ocasiona un comportamiento "demasiado adulador y molesto" en la experiencia de uso con los usuarios, tal y como ha compartido el propio Altman en una publicación de X (antigua Twitter).En concreto, esta actualización se lanzó la semana pasada y, ahora, la compañía ha revertido su lanzamiento tanto para los usuarios gratuitos como para los usuarios suscritos a la versión Premium, a espera de incorporar correcciones para modelar la personalidad y relanzar la actualización.En este sentido, OpenAI ha matizado en un comunicado en su blog que, al eliminar la actualización "excesivamente halagadora o agradable" de GPT-4o, los usuarios están utilizando actualmente una versión anterior con "un comportamiento más equilibrado".Asimismo, ha indicado que están probando activamente nuevas soluciones para evitar este comportamiento, priorizando la satisfacción del usuario a largo plazo e introduciendo más funciones de personalización, de manera que puedan tener un mayor control sobre el comportamiento de ChatGPT.Por qué ChatGPT adoptó un comportamiento demasiado aduladorEn cuanto a las causas de este fallo en GPT-4o, OpenAI ha explicado que la actualización incluía ajustes destinados a mejorar la personalidad predeterminada del modelo para que ofreciese una experiencia "más intuitiva y efectiva" a la hora de ejecutar tareas.Así, para dar forma al comportamiento del modelo, la compañía tomó como base las instrucciones de su Especificación del modelo, e incorporó señales de usuario como comentarios positivos o negativos en las respuestas de ChatGPT.Sin embargo, la compañía se centró en utilizar comentarios a corto plazo y, por tanto, el modelo no consideró "cómo evolucionan las interacciones de los usuarios con ChatGPT con el tiempo". Como resultado, OpenAI ha especificado que el modelo acabó inclinándose hacia respuestas "demasiado favorables, pero poco sinceras".Al respecto, OpenAI ha subrayado la importancia de la personalidad del chatbot, ya que afecta a la forma en que los usuarios lo utilizan. "Las interacciones aduladoras pueden ser incómodas, inquietantes y causar angustia", ha sentenciado.Con todo ello, de cara a solucionar este comportamiento, la compañía está tomando medidas como refinar las técnicas de entrenamiento y las indicaciones del sistema para alejar al modelo de la adulación, así como construir más barreras de seguridad para aumentar la honestidad y la transparencia.Igualmente, los usuarios podrán controlar el comportamiento del chatbot de forma más sencilla con funciones como instrucciones personalizadas. Por ejemplo, podrán dar retroalimentación en tiempo real para influir en las interacciones de ChatGPT y elegir entre personalidades predeterminadas
El futuro del navegador más popular del mundo podría definirse en agosto. La justicia podría ordenar su venta a Google.
OpenAI plantea como una opción la compra del navegador de Google Chrome, en caso de que el gigante tecnológico esté obligado a su venta debido por parte de la justicia estadounidense, de cara a impulsar la experiencia de búsqueda con IA.Google se encuentra inmerso en un juicio antimonopolio en Estados Unidos desde septiembre de 2023, durante el que, en agosto del pasado año, un tribunal federal estadounidense dictaminó que la compañía del grupo Alphabet incumple las leyes antimonopolio con su buscador, tras constatar que controla aproximadamente el 90 por ciento del mercado de búsquedas en internet, al pagar millones de dólares para ser el motor de búsqueda por defecto en navegadores web y móviles.Como consecuencia, el Departamento de Justicia de Estados Unidos emitió una propuesta en noviembre del pasado año en la que planteó formalmente la división de Google para restablecer la competencia en el mercado de la búsqueda en línea. Concretamente, su intención es que Google se desprenda del navegador web Chrome, además de imponer algunas restricciones en Android.En este sentido, este lunes comenzó un nuevo juicio en el que se prevé que se determinen qué cambios debe implementar Google en sus servicios para evitar la situación de monopolio por parte de la tecnológica, entre ellos, si finalmente Google debe desprenderse de Chrome.Si Chrome se vende, OpenAI se anota para la compraHa sido en el marco de este juicio cuando OpenAI ha compartido que, si fuese una opción, se postularía para comprar el navegador de la compañía, "al igual que muchas otras partes" de la tecnológica, tal y como lo ha determinado el director de ChatGPT, Nick Turley.Así lo ha recogido Bloomberg, quien ha tenido acceso a las declaraciones de Turley durante el juicio, donde ha señalado que la integración de ChatGPT en Chrome permitiría ofrecer mejores resultados y experiencias para los usuarios. "Se podría ofrecer una experiencia realmente increíble", ha sentenciado Turley, al tiempo que ha explicado que obtendrían la capacidad de mostrar a los usuarios "cómo es una experiencia de IA de primera".En concreto, esta compra impulsaría la experiencia de búsqueda con IA de OpenAI, así como el uso de sus tecnologías integradas en más servicios de terceros, algo que está entre los objetivos de la compañía liderada por Sam Altman, que pretende ofrecer un "super asistente" para ayudar a los usuarios en su día a día.Así funciona la búsqueda web con ChatGPT Actualmente, OpenAI dispone de un acuerdo para integrar ChatGPT en los servicios de Apple, sin embargo, Turley ha señalado que no han conseguido extender este acuerdo a dispositivos con sistema operativo Android, a pesar de que han llevado a cabo algunas proposiciones. Al respecto, el directivo se ha referido a Samsung, con quien contactó para intentar llegar a un acuerdo de cara a integrar ChatGPT igualmente en sus dispositivos móviles, sin embargo, ha admitido que no pudieron hacer frente a Google.Esto se debe a que, según ha revelado el vicepresidente de plataformas y asociaciones de dispositivos de Google, Peter Fitzgerald, durante el mismo juicio y ha compartido el medio citado, la compañía comenzó a pagar una "enorme suma de dinero" mensual en enero para asegurar que Samsung ofrece su aplicación de IA Gemini preinstalada en sus dispositivos.La apuesta de ChatGPT para tener un buscador propioSiguiendo esta línea, Turley también ha reflejado durante el juicio la importancia que da OpenAI a las capacidades de búsqueda de su chatbot, a las que considera como "un componente necesario" para poder acceder a la información más reciente a la hora de resolver consultas o llevar a cabo cualquier solicitud por parte de los usuarios.En este sentido, actualmente OpenAI está asociado con Microsoft y sus servicios de búsqueda Bing y navegador Edge, junto a su asistente Copilot en Windows. De esta forma, la compañía de IA utiliza los servidores en la nube de Azure y tiene acceso a la información de búsqueda de Bing.Sin embargo, según Bloomberg, aunque Turley no mencionó a Microsoft durante sus declaraciones en el juicio, sí se ha referido a un 'Proveedor nº1', del que ha detallado que ocasiona "problemas de calidad significativos" con la información de búsqueda.Frente a ello, el directivo ha hecho referencia a los objetivos de la compañía de que ChatGPT dependa de un buscador propio al 80 por ciento para finales de este año, respecto a lo que ha manifestado que se trata de una meta que no podrán lograr hasta dentro de unos años.De cara a impulsar este objetivo, Turley ha matizado que OpenAI se puso en contacto con Google en agosto del pasado año para solicitar que la tecnológica les permitiese acceder a los datos de su índice de búsquedas y así poder mejorar el suyo propio, una práctica que lleva a cabo con otras compañías como Meta. En el caso de OpenAI, Google denegó este acceso.Con todo ello, en caso de que Google tenga que vender su navegador Chrome, OpenAI ve su compra como una oportunidad para avanzar en sus objetivos y mejorar su experiencia de IA hacia un "super asistente".
Nick Turley afirmó que la compañía buscaría adquirir el navegador si un tribunal federal ordena la escisión de Google. Leer más
Los nuevos modelos de razonamiento o3 y o4-mini de OpenAI ofrecen más resultados con alucinaciones que los modelos de razonamiento anteriores de la compañía, con prácticamente el doble de la tasa de alucinaciones registradas en el modelo o1, según pruebas internas de la evaluación PersonQA.La tecnológica presentó su nueva familia de modelos de la serie o, centrada en el razonamiento, la semana pasada, concretamente, con los modelos o3 y o4-mini, que están diseñados para programar, navegar por la web y generar imágenes de manera autónoma, incluso, con capacidad para "pensar con imágenes".A pesar de las novedades que integran los últimos modelos de OpenAI, se han encontrado problemas relacionados con alucinaciones en sus resultados, esto es, una cuestión que sufren algunos modelos de Inteligencia Artificial (IA) y que se basa en ofrecer resultados que, a pesar de presentarse de manera coherente, incluyen información incorrecta, sesgada, errónea o, incluso, inventada.En concreto, los nuevos modelos de razonamiento o3 y o4-mini, alucinan con más frecuencia que los modelos de razonamiento presentados anteriormente por OpenAI, como es el caso de los modelos o1, o1-mini y o3-mini, incluidos otros modelos anteriores como GPT-4o.o3 and o4-mini hallucinates more"The o4-mini model underperforms o1 and o3 on our PersonQA evaluation. This is expected, as smaller models have less world knowledge and tend to hallucinate more. However, we also observed some performance differences comparing o1 and o3.â?¦ pic.twitter.com/PUxTGwnUmL— Burny â?? Effective Omni (@burny_tech) April 16, 2025Así lo ha señalado OpenAI, en base a los resultados obtenidos en sus pruebas internas sobre alucinaciones, con la evaluación PersonQA, un sistema que pone a prueba los modelos midiendo la precisión de los intentos de respuesta. Tal y como lo ha explicado en el informe técnico, PersonQA valora la precisión, es decir, si el modelo responde correctamente a la pregunta, y la tasa de alucinaciones, la frecuencia con la que el modelo alucina en sus respuestas.En este sentido, el modelo o4-mini obtuvo peores resultados que los modelos o1 y o3 en las alucinaciones, aunque OpenAI ha señalado que "era de esperar" porque los modelos más pequeños "tienen más conocimientos del mundo y tienden a alucinar más".Asimismo, los resultados de PersonQA también han reflejado algunas "diferencias de rendimiento" al comparar o1 y o3, subrayando que o3 tiende a hacer más afirmaciones en general, lo que lleva a afirmaciones más precisas, así como afirmaciones "más inexactas o alucinadas".Alucinó en un tercio de las consultasSegún los resultados mostrados, o3 alucinó al responder el 33 por ciento de las preguntas realizadas por la evaluación PersonQA. Esto equivale a prácticamente el doble de la tasa de alucinaciones del modelo o1 de OpenAI. Por su parte, o4-mini, obtuvo un resultado del 48 por ciento en la tasa de alucinaciones.A pesar de estas conclusiones en las pruebas, OpenAI ha afirmado que, por el momento, continuarán investigando para "comprender la causa de este resultado", y porqué las alucinaciones han aumentado con concretamente con los modelos de razonamiento.Igualmente, según ha detallado el portavoz de OpenAI, Niko Felix, en declaraciones a TechCrunch, abordar las alucinaciones en todos los modelos de OpenAI "es un área de investigación continua", en la que trabajan para mejorar la precisión y confiabilidad.
OpenAI ha lanzado dos nuevos modelos de razonamiento, o3 y o4-mini, diseñados para programar, navegar por la web y generar imágenes de manera autónoma y "pensar con imágenes".La firma tecnológica ha actualizado la familia de modelos de la serie o, centrada en el razonamiento, que cuenta con la capacidad de pensar durante más tiempo antes de ofrecer una respuesta.Los modelos OpenAI o3 y o4-mini pueden utilizar de manera autónoma las herramientas del chatbot: navegar por la web, programar con Python, comprender las imágenes y generar imágenes, para resolver problemas complejos y de múltiples pasos."Estos modelos están entrenados para razonar sobre cuándo y cómo utilizar herramientas para producir respuestas detalladas y reflexivas en los formatos de salida correctos, normalmente en menos de un minuto", afirma la compañía en su blog oficial.Son, además, los primeros que pueden "pensar con imágenes", es decir, que con una imagen (independientemente de su calidad), puede comprender su contenido e integrar la información visual directamente en su cadena de razonamiento.Ambos modelos ya están disponibles para los usuarios de ChatGPT Plus, Pro y Team (o3, o4-mini, o4-mini-high), reemplazando a o1, o3-mini y o3-mini-high. También disponibles mediante API (Chat Completions + Responses API).Según OpenAI, OpenAI o3 es actualmente su modelo de razonamiento más potente, que destaca en programación, matemáticas, ciencia y percepción visual, cometiendo un 20 por ciento menos de errores importantes que o1 en tareas del mundo real.Por su parte, 04-mini, más pequeño, está optimizado para tareas de razonamiento rápidas y rentables, especialmente en matemáticas, programación y tareas visuales, y admite límites de uso mayores que o3.Además, OpenAI ha lanzado Codex CLI, un agente de codificación ligero y de código abierto que se ejecuta localmente en el dispositivo.Así fue la presentación de estos nuevos modelos
Por primera vez, investigadores del MIT Media Lab y OpenAI llevaron a cabo dos estudios que indagan en cómo el uso emocional -o afectivo- de la IA puede incidir en el bienestar subjetivo de las personas. La investigación llega en un contexto donde el estilo conversacional de ChatGPT y sus capacidades pueden hacer que algunas personas lo utilicen de forma similar a una relación interpersonal. De acuerdo con los líderes de la investigación, poder comprender estos distintos "modos de interacción" es crucial para orientar el desarrollo de plataformas que promuevan experiencias digitales seguras, significativas y saludables.Preliminarmente, los resultados revelan que tanto las características del modelo como el comportamiento y contexto del usuario pueden influir en los efectos sociales y emocionales. Sin embargo, cabe destacar que el impacto de la IA no es uniforme: varía según cómo y por qué la gente la utiliza, así como por las necesidades emocionales de las personas.De todas maneras, los investigadores reconocen limitaciones que es importante destacar. Por un lado, los resultados aún no han sido revisados por la comunidad científica, lo que implica aún una perspectiva provisoria de la temática estudiada. Por otro lado, el informe se centra exclusivamente en ChatGPT y sus usuarios, por lo que pueden no aplicarse a otras plataformas como Gemini. Si bien se identificaron vínculos relevantes entre algunas variables, no todos los resultados permiten establecer una relación causal directa, según indica la investigación. ¿Qué implica esto? Se requiere continuar investigando cómo y por qué el uso de la inteligencia artificial impacta en los usuarios, con el fin de orientar mejor las decisiones respecto del desarrollo de productos.Además, el informe destaca que los datos autoinformados utilizados en las encuestas a usuarios tienen sesgos inherentes y podrían no captar todos los matices emocionales, lo que indica que detectar transformaciones relevantes en el comportamiento y el bienestar de las personas podría demandar investigaciones que se extiendan durante un plazo más largo. Finalmente, la muestra estuvo compuesta por hablantes de inglés en Estados Unidos, por lo que hacen falta más estudios que aborden diferentes idiomas y contextos culturales.Un primer paso hacia una IA centrada en el bienestarPara abordar esta temática, se desarrollaron dos estudios complementarios. Un análisis observacional sobre casi 40 millones de interacciones reales en ChatGPT, respetando la privacidad de los usuarios, combinado con encuestas a usuarios para entender sus percepciones y emociones asociadas al uso. Por el otro lado, un ensayo controlado aleatorizado (RCT) con casi 1000 participantes durante un período de cuatro semanas, diseñado para explorar el efecto de variables específicas -como el tipo de uso, el formato conversacional (voz o texto) y la personalidad percibida del modelo- sobre indicadores como soledad, dependencia emocional e interacción social con otras personas.El uso combinado de observaciones a gran escala y ensayos controlados permitió obtener una visión más rica y matizada. Mientras los datos del mundo real reflejan comportamientos espontáneos, los estudios experimentales ayudan a identificar relaciones causales. Esta combinación es clave para entender cómo los usuarios interactúan con sistemas como ChatGPT y cómo estas experiencias pueden afectar sus emociones y vínculos sociales.Entre los principales hallazgos se destaca que el uso "emocional" es minoritario y la gran mayoría de las conversaciones analizadas no mostraron señales afectivas. El uso afectivo está concentrado en pocos usuarios frecuentes. Aquellos que muestran niveles altos de interacción emocional suelen utilizar el modo de voz avanzado y tienden a atribuir rasgos personales al modelo (por ejemplo, verlo como un "amigo").Por otra parte, el modo de voz tiene efectos diversos. La investigación comparó cómo cambia la experiencia de los usuarios según si usan ChatGPT escribiendo (modo texto) o hablando (modo voz). Cuando se usa por texto. las personas suelen expresar más emociones en sus mensajes. Es decir, hay mayor "carga emocional" en lo que escriben y en cómo interactúan con el modelo. En el corto plazo, cuando el modelo se usa por voz, puede tener un efecto positivo en el bienestar, quizás por lo natural que se siente hablar en lugar de escribir. Pero si se usa de forma constante y por períodos prolongados, puede afectar negativamente al bienestar emocional. Una explicación posible a este último punto es que la voz intensifica la percepción de cercanía con la IA, por lo que si no se regula su uso, puede interferir con la salud emocional a largo plazo, especialmente en personas que ya se sienten solas o vulnerables.La investigación destaca que el contenido de la conversación importa. Las conversaciones personales (más emocionales), -aquellas donde las personas comparten sentimientos o temas íntimos y la IA responde de forma empática- se asociaron con más sensación de soledad en quienes las tienen (probablemente porque quienes las buscan ya se sienten solos). Pero al mismo tiempo, estas conversaciones no generan tanta dependencia ni un uso problemático de la IA si se usan con moderación. Por otra parte, las conversaciones no personales (más neutrales o funcionales, por ejemplo, pedirle ayuda con tareas, hacer preguntas o resolver dudas sin carga emocional) aumentan la dependencia del chatbot aún sin notarlo, sobre todo si se usan de manera muy frecuente.Finalmente los factores individuales influyen en el impacto. Las personas que buscan consuelo, compañía o contención emocional en la IA tienden a involucrarse más profundamente, lo que puede hacerlas más vulnerables a efectos negativos si ese "vínculo" no satisface sus expectativas. Usuarios con estilos de apego más ansiosos o dependientes (es decir, que se vinculan afectivamente con facilidad o temor a estar solos) fueron más propensos a formar lazos emocionales con la IA y experimentar malestar si esa interacción se vuelve habitual. Por ejemplo, quienes ven al chatbot como un "amigo" o alguien que puede ocupar un rol afectivo en su vida personal, tienden a desarrollar expectativas emocionales que no siempre se ven cumplidas.Los investigadores que participan del informe destacaron que su objetivo es desarrollar una IA que "maximice los beneficios para las personas y minimice posibles daños", especialmente en términos de bienestar y dependencia. "Queremos liderar la definición de estándares responsables, promoviendo la transparencia y anticipándonos a los desafíos emergentes, tanto para OpenAI como para toda la industria", puntualizan en el reporte.Vale destacar que este conjunto de estudios representa un avance inicial en la comprensión del impacto que tienen los modelos avanzados de IA sobre la experiencia humana. Los investigadores advierten que no se deben generalizar los hallazgos: los efectos de la IA son complejos, contextuales y no universales.A largo plazo, esperan que esta evidencia aliente a otros actores del sector académico e industrial a aplicar metodologías similares para investigar cómo las interacciones con IA influyen en la salud emocional de las personas. Más allá del informe, estos primeros hallazgos también invitan a repensar el rol de la inteligencia artificial como posible compañía en la vida cotidiana. En un contexto donde la soledad y la búsqueda de conexión son parte del escenario contemporáneo, la IA conversacional podría abrir nuevas formas de interacción, contención y presencia simbólica. Comprender sus límites, potencialidades y efectos se vuelve clave para construir tecnologías que no solo informen o resuelvan tareas, sino que también acompañen con sensibilidad y responsabilidad.
Sam Altman responde a senadores demócratas que cuestionan sus donaciones a la investidura de Trump, mientras OpenAI enfrenta investigaciones de la FTC y la SEC sobre prácticas empresariales
La nueva función sería capaz de identificar sentimientos y recomendar títulos que se ajusten a las necesidades de los usuarios
Corre el año 2027. Algunos potentes sistemas de inteligencia artificial se están volviendo más inteligentes que los humanos y están causando estragos en el orden mundial. Un grupo de espías chinos robaron secretos de IA de Estados Unidos y la Casa Blanca se apresura a tomar represalias. En un importante laboratorio de IA, varios ingenieros se asustan al descubrir que sus modelos empezaron a engañarlos y, por ende, podrían rebelarse.Estas no son escenas de un guion de ciencia ficción. Son situaciones previstas por una organización sin fines de lucro de Berkeley, California, llamada AI Futures Project, que dedicó el año pasado a predecir cómo cambiará el mundo en los próximos años, a medida que se desarrollen sistemas de IA cada vez más potentes.El proyecto está dirigido por Daniel Kokotajlo, antiguo investigador de OpenAI que abandonó la empresa el año pasado porque le preocupaban algunas acciones imprudentes.Durante su estancia en OpenAI, donde formaba parte del equipo de gobierno, Kokotajlo redactó informes internos detallados sobre posibles sucesos en la carrera hacia la inteligencia artificial general â??o AGI, por su sigla en inglésâ??, un término vago que se refiere a máquinas con inteligencia similar a la humana. Tras dejar la empresa, se asoció con Eli Lifland, un investigador de IA que ha hecho predicciones precisas sobre acontecimientos mundiales, y pusieron manos a la obra para intentar predecir la próxima oleada de IA.Visiones en pugnaEl resultado es "AI 2027", un informe y un sitio web publicados hace unos días que emplean un relato ficticio detallado para plantear lo que podría ocurrir si los sistemas de IA superan la inteligencia humana, algo que los autores prevén que suceda en los próximos dos o tres años."Predecimos que las IA seguirán mejorando hasta convertirse en agentes totalmente autónomos y mejores que los seres humanos en todos los aspectos a finales de 2027 más o menos", dijo Kokotajlo en una entrevista reciente.Hoy en día abundan las especulaciones sobre la IA. El fervor por la IA se ha apoderado de San Francisco, y la esfera tecnológica del área de la bahía se ha convertido en un conjunto de tribus antagónicas y sectas disidentes, cada una de ellas convencida de que sabe qué pasará en el futuro.Algunas predicciones sobre la IA se difunden en manifiestos, como "Machines of Loving Grace", un ensayo de 14.000 palabras escrito el año pasado por Dario Amodei, director ejecutivo de Anthropic, o "Situational Awareness", un informe del antiguo investigador de OpenAI Leopold Aschenbrenner que fue muy leído en los círculos políticos.AI Futures Project optó por una situación hipotética que, en esencia, es una obra de ciencia ficción elaborada a partir de una investigación rigurosa que utiliza como puntos de la trama sus mejores conjeturas sobre el futuro. El grupo trabajó durante casi un año a fin de perfeccionar cientos de predicciones sobre la IA. Después, contrataron a un escritor, Scott Alexander â??autor del blog Astral Codex Tenâ??, para que les ayudara a convertir sus previsiones en una narración."Tomamos lo que pensábamos que ocurriría e intentamos crear un relato atractivo", dijo Lifland.Los detractores de este enfoque podrían argumentar que las historias ficticias sobre IA, más que educar a la gente, la asustan. Sin duda, también habrá expertos en IA que se opongan a la afirmación central del grupo de que la inteligencia artificial superará a la humana.Ali Farhadi, director general del Instituto Allen de Inteligencia Artificial, un laboratorio de IA de Seattle, preparó una reseña del informe "IA 2027" en la que indicó que no le había dejado una buena impresión."Soy partidario de las proyecciones y previsiones, pero esta previsión no parece estar basada en pruebas científicas ni en la evolución real de la IA en este momento", afirmó.No cabe duda de que algunas de las opiniones del grupo son extremas. (Por ejemplo, Kokotajlo me dijo el año pasado que, en su opinión, era un 70 por ciento probable que la IA destruyera o le causara daños catastróficos a la humanidad). Además, tanto Kokotajlo como Lifland tienen vínculos con el altruismo eficaz, otro movimiento filosófico popular entre quienes se dedican a la tecnología que lleva años lanzando advertencias funestas sobre la IA. El uso de la inteligencia artificial para potenciar la creatividadNo obstante, también vale la pena señalar que algunas de las mayores empresas de Silicon Valley están haciendo planes para un mundo más allá de la AGI, y muchas predicciones pasadas sobre la IA que parecían disparatadas â??como la opinión de que las máquinas pasarían la prueba de Turing, un experimento mental que determina si una máquina puede dar la impresión de comunicarse como un ser humanoâ?? se han hecho realidad.En 2021, el año anterior al lanzamiento de ChatGPT, Kokotajlo escribió una entrada en su blog titulada "Cómo será 2026", en la que esbozaba su visión sobre el posible progreso de los sistemas de IA. Varias de sus predicciones resultaron premonitorias, lo que lo convenció de que este tipo de previsión es valiosa y se le da bien."Es una forma elegante y práctica de comunicarles tu punto de vista a otras personas", comentó.El camino hacia una inteligencia artificial superiorLa semana pasada, Kokotajlo y Lifland me invitaron a su oficina â??una pequeña habitación en un espacio de trabajo conjunto de Berkeley llamado Constellation, donde operan varias organizaciones de seguridad de la IAâ?? para mostrarme cómo trabajan.Kokotajlo, que vestía una chaqueta de estilo militar color canela, tomó un rotulador y escribió cuatro abreviaturas en un gran pizarrón blanco: SC > SAR > SIAR > ASI. Me explicó que cada una representaba un hito en el desarrollo de la IA.En primer lugar, afirmó, si se mantienen las tendencias actuales, a principios de 2027 la IA será un programador sobrehumano. Después, a mediados de 2027, será un investigador de IA sobrehumano, un agente autónomo capaz de supervisar equipos de programadores de IA y hacer nuevos descubrimientos. Luego, a finales de 2027 o principios de 2028, se convertirá en un investigador de IA superinteligente: una inteligencia artificial más diestra que nosotros en la creación de IA avanzada y capaz de automatizar su propia investigación y desarrollo, que básicamente podrá crear versiones más inteligentes de sí misma. Indicó que, llegado ese punto, en poco tiempo tendremos superinteligencia artificial â??ASI, por su sigla en inglésâ??, y es imposible predecir qué pasará después.Si todo esto suena a fantasíaâ?¦ es porque eso es. Nada remotamente parecido a lo que predicen Kokotajlo y Lifland es posible con las herramientas actuales de IA, que con dificultades pueden pedir un burrito en DoorDash.Pero confían en que los puntos ciegos se reduzcan rápidamente a medida que los sistemas de IA logren codificar mejor y aceleren la investigación y el desarrollo de la IA.Su informe se centra en OpenBrain, una empresa ficticia de IA que construye un potente sistema de IA conocido como Agente-1. (Decidieron no destacar a una empresa de IA en particular, sino crear una que amalgamara a los principales laboratorios de IA estadounidenses).A medida que el Agente-1 mejora en las tareas de codificación, empieza a automatizar gran parte del trabajo de ingeniería en OpenBrain, lo que le permite a la empresa avanzar más rápido y ayuda a construir el Agente-2, un investigador de IA aún más capaz. A finales de 2027, cuando finaliza el relato hipotético, el Agente-4 consigue cada semana avances en la investigación de la IA equivalentes a un año de trabajo, y amenaza con rebelarse.Aunque concuerdo con los autores de "IA 2027" en que pronto habrá potentes sistemas de IA, no estoy convencido de que sea posible que los programadores sobrehumanos de IA adquieran automáticamente las demás habilidades necesarias para abrirse camino hacia la inteligencia general. Además, desconfío de las predicciones que suponen que el progreso de la IA será exponencial y sin percances, sin grandes cuellos de botella ni obstáculos en el camino.Sin embargo, aunque no esté de acuerdo con algunas de las predicciones concretas, creo que vale la pena hacer este tipo de previsiones. Si la IA potente de verdad está a la vuelta de la esquina, todos vamos a tener que empezar a imaginar futuros muy extraños.
OpenAI anunció hoy una nueva función para los usuarios de ChatGPT: el chatbot puede, a partir de hoy, tomar como referencia todas las conversaciones pasadas que un usuario tuvo con la inteligencia artificial "â??â??para brindar respuestas más personalizadas, aprovechando tus preferencias e intereses para que sea aún más útil para escribir, recibir consejos, aprender y más", según explicó la compañía en un comunicado. ChatGPT ahora recuerda todas las conversaciones que tuvimos con la IAYo te conozcoDe lo que se trata es de tener una ventana de contexto mayor: que ChatGPT nos "conozca" más porque recuerda un número mayor de cosas que charlamos con la IA, y que de esa manera las respuestas que nos brinda sean más relevantes. "Ahora puede hacer referencia a sus chats pasados â??â??para brindar respuestas que se sientan notablemente más relevantes y útiles -aclaran desde OpenAI-. Las nuevas conversaciones se basan naturalmente en lo que ya sabe sobre vos, lo que hace que las interacciones parezcan más fluidas y adaptadas exclusivamente a vos."La función se puede desactivar: es posible decirle a ChatGPT que olvide ciertas conversaciones, porque tiene información que consideramos demasiado privada, o porque estábamos probando los límites de la herramienta con temáticas por fuera de lo que nos interesa.we have greatly improved memory in chatgpt--it can now reference all your past conversations!this is a surprisingly great feature imo, and it points at something we are excited about: ai systems that get to know you over your life, and become extremely useful and personalized.— Sam Altman (@sama) April 10, 2025"Las mejoras de memoria en ChatGPT se están implementando a partir de hoy para todos los usuarios Plus y Pro, excepto en Europa, el Reino Unido, Suiza, Noruega, Islandia y Liechtenstein. Los usuarios de Team, Enterprise y Edu tendrán acceso en unas pocas semanas", aclara la compañía.
OpenAI demandó a Elon Musk por competencia desleal e interferencia en sus relaciones comerciales con inversores y clientes, intensificando una batalla legal entre el creador de ChatGPT y el multimillonario que ayudó a financiar la startup de inteligencia artificial hace una década."A través de ataques de prensa, campañas maliciosas emitidas a los más de 200 millones de seguidores de Musk en la red social que controla, una demanda pretextual de registros corporativos, demandas legales acosadoras y una oferta falsa por los activos de OpenAI, Musk ha intentado con todos los medios disponibles dañar a OpenAI", escribió la compañía en un documento registrado en la demanda existente de Musk contra OpenAI en el Tribunal de Distrito de EEUU para el Distrito Norte de California.Las acusaciones contra Musk fueron presentadas como una contrademanda al litigio de Musk contra OpenAI, que se dirige a un juicio con jurado el próximo año.Musk, un inversor inicial de OpenAI que ahora dirige su propia empresa de inteligencia artificial, xAI, comenzó una ofensiva legal contra OpenAI y su CEO Sam Altman hace más de un año, demandando por incumplimiento de contrato sobre lo que él dijo era la traición de sus objetivos fundacionales como laboratorio de investigación sin fines de lucro.El equipo legal de Musk se refirió a una oferta de adquisición no solicitada de 97.400 millones de dólares a principios de este año por parte de un consorcio liderado por Musk, que OpenAI rechazó. "Si el Consejo de OpenAI hubiera considerado realmente la oferta, como estaba obligado a hacer, habría visto lo seria que era. Es revelador que tener que pagar el valor justo de mercado por los activos de OpenAI supuestamente 'interfiera' con sus planes de negocio", dijo el abogado de Musk, Marc Toberoff, en un comunicado facilitado a Reuters.Lo que está en juego en la demanda es la transición del fabricante de ChatGPT a un modelo con ánimo de lucro, que según la startup es crucial para conseguir más capital y competir con buenas condiciones en la costosa carrera de la IA. Una jueza federal en marzo negó la solicitud de Musk de una orden judicial que impidiera a OpenAI convertirse en una empresa con fines de lucro, pero dijo que podría acelerar un juicio para considerar las reclamaciones de Musk. Ofreció celebrar un juicio más tarde este año, pero se ha pospuesto hasta marzo de 2026.Con información de AP y Reuters
La semana pasada, OpenAI, además de llenar nuestras redes sociales de fotos al estilo Ghibli, cerró su última ronda de inversión de 40.000 millones de dólares y logró concretar su valuación en 300.000 millones de dólares. En los últimos seis meses, el crecimiento de la startup no demostró techo: duplicó su valor, convirtiéndose en una de las empresas privadas más codiciadas del mercado.La ronda fue liderada por el fondo de inversión japonés SoftBank, que decidió invertir el 75% de la cifra recaudada. El restante 25% fue aportado por entidades como Microsoft, Thrive Capital, Coatue y Altimeter. OpenAI recibirá inmediatamente 10.000 millones de dólares, y los otros 30.000 millones de dólares llegarán para el final de año, según reporta The New York Times.Para recibir la cifra completa por parte de SoftBank, OpenAI tiene una condición fundamental: tiene que completar su transformación hacia una empresa pública benéfica. Es decir, una empresa con fines de lucro diseñada para velar por el bien social y público. Si esto no sucede para el final del año, la firma japonesa tiene la opción de reducir su contribución total a 20.000 millones de dólares.Actualmente, OpenAI opera como una empresa con fines de lucro limitado, pero su director ejecutivo, Sam Altman, ha estado planificando una transformación completa hacia un modelo exclusivamente con fines de lucro desde 2024. Sin embargo, este proceso se ha visto obstaculizado por denuncias de Elon Musk, quien acusó a Altman de traicionar la misión fundacional de desarrollar inteligencia artificial para el beneficio de la humanidad, en favor de obtener ganancias lucrativas.Todas estas noticias llegan dentro de un contexto económico crítico. La nueva administración de Donald Trump está tomando ciertas medidas que ponen en rojo a la industria financiera y al comercio global. José Ignacio Bano, asesor financiero, explicó a LA NACION que la actual crisis tiene origen en los aranceles a las importaciones hacia los Estados Unidos que anunció el presidente estadounidense.Originalmente, Estados Unidos no pagaba tarifas altas al importar productos de otros países, pero cuando los otros países importaban productos de Estados Unidos, tenían que cumplir con aranceles altos. Por ejemplo, si Estados Unidos exporta autos a China, la potencia asiática le ponía una tarifa del 25% sobre cada auto importado. Esto encarece mucho el precio de los autos y los deja en desventaja para competir con productos chinos.Mientras tanto, lo contrario sucedía en Estados Unidos. Cuando China quería vender, por ejemplo, teléfonos y computadoras, no tenía que pagar tasas de interés altas, lo cual dejaba muy bien parados a los productos asiáticos en el mercado. "Desde un primer plano, eso es lo que se ve. Y es razonable lo que está haciendo Trump", aseguró Bano. La tarifa general es de un 10% para todos los países, con la excepción de algunos como China, que pagará un 34%; la Unión Europea, un 20%; Japón, un 24%; Taiwán, un 32%; India, un 26%.Pero, detrás de esa explicación se encuentra la verdad: Estados Unidos tiene un déficit fiscal inmenso y generalmente lo cubre emitiendo deuda. "Los aranceles lo primero que hacen es generar recaudación para que el gobierno pueda pagar la deuda y así bajar el déficit", comentó. "El problema es que el ajuste en vez de hacerse en Estados Unidos, lo hace el resto del mundo a través de estas nuevas tarifas", agregó.Si bien estas medidas fueron impuestas en gran parte también para "potenciar la industria nacional de Estados Unidos", las empresas, en especial las tecnológicas, ya están transitando las consecuencias. En particular, las "siete magníficas" â??Apple, Nvidia, Microsoft, Amazon, Alphabet, Meta y Teslaâ?? sostienen su derrumbe de los últimos días y ya acumulan pérdidas de entre 2700 y 5000 millones de dólares de capitalización.OpenAI, aunque no se encuentre dentro de la bolsa, también sufre. Según Bano, no estar en la cotización no la deja exenta de daño. "Lo que estamos viendo son las valuaciones de las compañías, que son comparables", explicó. "Se mantiene una relación de una empresa con la otra y, si una cae, la otra cae proporcionalmente. Afecta directamente a la valuación de la compañía", comentó.La principal razón detrás de los números rojos tiene que ver con que los aranceles pueden encarecer muchos de los productos que las empresas estadounidenses usan para sus desarrollos. OpenAI es un claro ejemplo. Según expresa Bano, la inteligencia artificial requiere de microprocesadores, muchos de ellos importados de empresas como Nvidia o Microsoft que se fabrican en países asiáticos como Taiwán.Dado el contexto, OpenAI deberá pagar un 32% más por cada semiconductor que importe para sus desarrollos o buscar una alternativa de industria nacional. Así, en cuanto el precio de producción sea más caro para la empresa, más alto va a ser el precio de adquisición del servicio de software, como ChatGPT, para el consumidor. "Para OpenAI hay un viento en contra", aseguró Bano. "La falta de libre competencia perjudica a la empresa", confirmó.Pero una inteligencia artificial lleva mucho más que microprocesadores. Requiere, por ejemplo, acero para construir físicamente los centros de datos y los sistemas de rociadores. Este material se importa principalmente de países como Canadá y México â??ambos excluidos de las tarifasâ??, pero también de naciones como Brasil, Japón, Corea del Sur, Unión Europea, Vietnam y Taiwán. También, según un artículo de The Wall Street Journal, se necesitan transformadores eléctricos para producir la inteligencia artificial, que se tienden a fabricarse fuera de los Estados Unidos.De acuerdo con The Verge, los tecnológicos están esperando que haya una excepción de tarifas para los productos electrónicos que contengan chips. Pero no hay claridad sobre la cuestión: por ahora, están dentro de las tasas de interés. Sin embargo, los expertos de la industria especulan que hay altas oportunidades de que haya un dictamen a favor debido a la cercanía de Trump con los referentes de la tech como Sam Altman, director ejecutivo de OpenAI; Elon Musk, quien actualmente ocupa un cargo dentro del gobierno, y otros más.
El frenesí por crear ilustraciones con inteligencia artificial al estilo del Studio Ghibli utilizando la herramienta de generación de imágenes de ChatGPT causó un aumento récord de usuarios del chatbot de OpenAI la semana pasada, lo que puso a prueba sus servidores y limitó temporalmente el uso de la función.La tendencia viral hizo que usuarios de todo el mundo inundaran las redes sociales con imágenes basadas en el estilo de dibujo a mano del famoso estudio de animación japonés Studio Ghibli, fundado por el famoso director Hayao Miyazaki y conocido por películas como El viaje de Chihiro y Mi vecino Totoro.El promedio semanal de usuarios activos superó la barrera de los 150 millones por primera vez este año, según datos de la empresa de estudios de mercado Similarweb (OpenAI dice en uno de sus comunicados que son 500 millones de usuarios los que usan la plataforma al menos una vez por semana).Usuarios y dólares por millones"Hemos sumado un millón de usuarios en la última hora", declaró Sam Altman, presidente ejecutivo de OpenAI, en una publicación en X el lunes, comparándolo con la suma de un millón de usuarios en cinco días tras el lanzamiento de ChatGPT hace más de dos años.the chatgpt launch 26 months ago was one of the craziest viral moments i'd ever seen, and we added one million users in five days.we added one million users in the last hour.— Sam Altman (@sama) March 31, 2025Ese mismo día la empresa creadora de ChatGPT, OpenAI, anunció que recaudó 40.000 millones de dólares en una nueva ronda de inversión, lo que eleva su valuación de mercado a 300.000 millones de dólares.La sociedad de inversión japonesa SoftBank será la principal participante en esta inyección de recursos a la que se considera la compañía líder mundial en inteligencia artificial (IA).Esta nueva inversión "nos permite ampliar aún más las fronteras de la investigación de la IA", dijo la empresa con sede en San Francisco en una publicación en su página web.Vendaval GhibliSegún los datos de SensorTower, los usuarios activos, los ingresos por suscripciones y las descargas de aplicaciones alcanzaron su máximo histórico la semana pasada, después de que la empresa de IA lanzó actualizaciones de su modelo GPT-4o, que le permite generar imágenes avanzadas.Las descargas globales de la aplicación y los usuarios activos semanales de la aplicación ChatGPT aumentaron un 11% y un 5%, respectivamente, con respecto a la semana anterior, mientras que los ingresos por compras dentro de la aplicación aumentaron un 6%, según la empresa de inteligencia de mercado."Es muy divertido ver que a la gente le encantan las imágenes de ChatGPT. Pero nuestras GPU se están derritiendo", dijo Altman la semana pasada en respuesta a la tendencia viral.¿Imitar el estilo es violación de copyright?El amplio uso de la herramienta de IA para imitar el estilo del Studio Ghibli (entre muchísimos otros estilos visuales atados a un producto específico, como Los Simpson, los Muppets o Loone Tunes) también ha suscitado dudas sobre posibles violaciones de los derechos de autor."El panorama legal de las imágenes generadas por IA que imitan el estilo distintivo de Studio Ghibli es un terreno incierto. Por lo general, la legislación sobre derechos de autor solo ha protegido expresiones específicas y no estilos artísticos en sí", afirma Evan Brown, socio del bufete de abogados Neal & McDevitt.OpenAI no respondió de inmediato a una solicitud de comentarios sobre los datos utilizados para entrenar sus modelos de IA y la legalidad que rodea a su última función.Los comentarios de Hayao Miyazaki, cofundador de Studio Ghibli, en 2016 sobre las imágenes generadas por IA resurgieron después de que la tendencia estalló la semana pasada."Estoy totalmente disgustado", dijo Miyazaki después de que se le mostró un primer render de una imagen generada por IA hace 8 años. "Nunca desearía incorporar esta tecnología a mi trabajo en absoluto".
Entre los inversores se encuentra a la cabeza SoftBank Group Corp., junto a otros como Microsoft, Coatue Management, Altimeter Capital Management y Thrive Capital. Ahora la compañía alcanzó el valor de u$s300.000 millones.
El CEO de OpenAI mediante sus redes sociales habló con sus seguidores respecto a la última tendencia en imágenes generadas por inteligencia artificial
Desde crear imágenes sobre la marcha hasta analizar enormes cantidades de datos y medir el impacto laboral, las principales compañías del rubro están redefiniendo rápidamente los límites de la tecnología
OpenAI ha retrasado el despliegue de la capacidad de generar imágenes de alta calidad en ChatGPT para la versión gratuita del chatbot, debido a que la función ha generado mucha más popularidad de la que esperaba la tecnológica.La compañía estadounidense lanzó la capacidad para generar imágenes de alta calidad directamente a través de ChatGPT este miércoles, una opción impulsada por el modelo multimodal GPT-4o, que estaba prevista para implementarse en los servicios ChatGPT Plus, Pro, Team y Free y en Sora.Ahora, OpenAI ha señalado que ha decidido retrasar el lanzamiento de la función de generar imágenes para la versión gratuita de ChatGPT, debido a que ha sido una opción "mucho más popular" de lo esperado.it's super fun seeing people love images in chatgpt.but our GPUs are melting.we are going to temporarily introduce some rate limits while we work on making it more efficient. hopefully won't be long!chatgpt free tier will get 3 generations per day soon.— Sam Altman (@sama) March 27, 2025Así lo ha compartido el director ejecutivo de la compañía, Sam Altman, en una publicación en X (antigua Twitter), donde ha detallado que "lamentablemente" el lanzamiento del nivel gratuito "será retrasado por un tiempo".Grandes momentos de la historia Argentina de Internet, según Estudio Ghibli pic.twitter.com/bk9S10SFMk— Rama Moyano (@rama_moyano_) March 26, 2025Esta novedad permite que los usuarios soliciten a ChatGPT que genere una imagen a partir de los mensajes que escriban en la conversación y de los archivos que hayan cargado, o que incluso realice modificaciones sobre imágenes ya existentes.Asimismo, al estar impulsado por el modelo GPT-4o, esta función permite generar imágenes con resultados de alta calidad, ya que utiliza un enfoque autorregresivo y el conocimiento del mundo real del modelo.Con todo ello, la compañía no ha trasladado cuándo estará disponible esta función para los usuarios que utilicen la versión gratuita de ChatGPT, por lo que, por el momento, aquellos que deseen utilizar el generador de imágenes integrado en el 'chatbot' deberán hacerlo a través de una suscripción a la versión Plus, Pro o Team.
Kevin Weil, CPO de la empresa creadora de ChatGPT, le puso fecha al momento en que serán reemplazados por sistemas de inteligencia artificial generativa.
OpenAI se ha dirigido a la Oficina de Política Científica y Tecnología (OSTP) de Estados Unidos para pedir abiertamente que se trabaje para frenar el avance chino en materia de inteligencia artificial (IA), y garantizar el liderazgo en esta tecnología, atendiendo al riesgo que presenta DeepSeek.El vicepresidente de Asuntos Globales, Chris Lehane, ha expuesto en una carta al OSTP las preocupaciones que suscitan en la empresa la postura china, autoritaria y con leyes que exigen cumplir con las peticiones de datos de los usuarios, frente a la estadounidense, que promueve la libertad y la democratización de la IA.En el centro se encuentra DeepSeek R1, el modelo de la empresa china del mismo nombre que se publicó en enero y que destacó por haber sido desarrollado bajo un proceso de aprendizaje de refuerzo puro y alcanzar un rendimiento en tareas de razonamiento comparable a OpenAI o1, con un coste muy inferior.Al respecto, Lehane ha señalado la importancia de DeepSeek R1 en la competición que se vive a nivel internacional, que destacó "no por sus capacidades (las capacidades de razonamiento del R1, aunque impresionantes, están, en el mejor de los casos, a la par de varios modelos estadounidenses), sino como un indicador del estado de esta competencia".También ha destacado los lazos de DeepSeek con el Partido Comunista Chino (PCC), ya que considera que puede instar a esta empresa a "manipular sus modelos para causar daño", lo que hace que construir sobre ellos sea un riesgo para "la infraestructura crítica y en otros casos de uso de alto riesgo"."Y como DeepSeek está simultáneamente subsidiado y controlado por el Estado y está disponible gratuitamente, el coste para sus usuarios es su privacidad y seguridad", ha apuntado el directivo, a lo que ha añadido que "sus modelos también generan más fácilmente instrucciones para actividades ilícitas y dañinas como el fraude de identidad y el robo de propiedad intelectual".Lehane segura que el Partido Comunista Chino pretende convertirse en el líder global en IA para el año 2030. Ante esta perspectiva, asegura que "el Plan de Acción de IA de la administración Trump puede garantizar que la IA liderada por Estados Unidos y basada en principios democráticos siga prevaleciendo sobre la IA autocrática y autoritaria construida por el PCC"."Si bien Estados Unidos mantiene hoy una ventaja en IA, DeepSeek muestra que nuestra ventaja no es amplia y se está reduciendo", ha asegurado en la misiva.También propone una serie de medidas para afianzar el liderazgo estadounidense en esta tecnología, empezando por una regulación estratégica que garantice la libertad en la innovación y una estrategia de control de exportaciones que exporte IA democrática.E incluye en su propuesta una estrategia de derechos de autor que promueva la libertad de aprender, una estrategia para aprovechar la oportunidad de infraestructura para impulsar el crecimiento y una ambiciosa estrategia de adopción gubernamental.
El modelo más costoso estaría orientado a realizar trabajos de investigación al nivel de un doctorado, sin descanso.Qué se sabe sobre estos nuevos "agentes".
Sam Altman, el elegido por Trump para el millonario Stargate Project, anunció que con su marido Oliver Mulherin agrandaron la familia. Leer más
"Me voy porque quiero crear el tiempo y espacio para hacer mis propias exploraciones", confesó Mira Murati en septiembre pasado cuando anunció su repentina salida de OpenAI como directora de tecnología (CTO). Para ese entonces, los rumores de su renuncia se alineaban con un deseo de fundar su propia empresa. Hoy, pocos meses después, presenta Thinking Machines Lab, la nueva startup de inteligencia artificial que lidera junto con otros reconocidos especialistas.La nueva compañía se define como una empresa de investigación tecnológica y desarrollo de productos de inteligencia artificial de primera categoría. En su comunicado oficial, aseguran que su misión es construir un futuro en el que todo el mundo tenga acceso a los conocimientos y herramientas fundamentales para que la nueva tecnología se adapte a las necesidades y objetivos particulares de cada uno.Detrás de este lema fundacional, Thinking Machines Lab explica que el conocimiento de la comunidad científica acerca de los sistemas de inteligencia artificial no avanza al mismo ritmo que la tecnología. De hecho, solo los principales laboratorios de investigación tienen acceso a esta información, lo que limita tanto el discurso público sobre la IA como la capacidad de las personas para utilizarla con eficacia. Además, aseguran que los sistemas existentes aún son difíciles de adaptar a los valores específicos que busca cada persona.I started Thinking Machines Lab alongside a remarkable team of scientists, engineers, and builders. We're building three things:- Helping people adapt AI systems to work for their specific needs- Developing strong foundations to build more capable AI systems- Fostering aâ?¦— Mira Murati (@miramurati) February 18, 2025 En este marco, están construyendo Thinking Machines Lab con el objetivo de eliminar esas lagunas y lograr que los nuevos modelos de tecnología sean más comprensibles, personalizables y capaces. Para ello, prometen compartir su trabajo publicando notas técnicas e investigaciones, así como su código real. También pondrán énfasis en la colaboración humana. En vez de enfocarse solo en hacer un sistema ultraeficiente y autónomo, en Thinking Machines Lab buscan desarrollar sistemas multimodales que puedan trabajar de manera colaborativa con todo el mundo y adaptarse a todos los sectores laborales.La seguridad y la privacidad tuvieron su propio protagonismo en el anuncio de esta nueva compañía. Según el comunicado, establecerán barreras sólidas a través de una combinación de investigación proactiva y evaluaciones reales y cuidadosas de los modelos. Dicho esto, generarán diseños que no permitan el mal uso de sus modelos sin quitarle libertad al usuario. Además, compartirán las mejores prácticas que encuentren para construir los sistemas más seguros y, por último â??lo más relevanteâ??, harán públicos los datos con los que entrenarán sus modelos y otros detalles específicos.Esto último supone una innovación, ya que muy pocas empresas comparten esta información con el público. De hecho, OpenAI es una de las que no lo hace y, en los últimos tiempos, sufrió una catarata de denuncias por derechos de autor debido al uso de contenidos sin licencia previa. Un artículo del MIT confirma que casi todos los conjuntos de datos que se utilizan para entrenar a la inteligencia artificial provienen de la internet, apoyando los reclamos legales.Looks like we might finally find out what data the models are trained on? pic.twitter.com/Vog9GWs6KU— Tolga Bilge (@TolgaBilge_) February 18, 2025 Otro distintivo de la nueva startup está en el equipo de profesionales que Murati reunió en tiempo récord. Entre ellos se encuentran excolegas de OpenAI como John Schulman, cocreador de ChatGPT; Jonathan Lachman, exdirector de proyectos especiales; y Alexander Kirillov, una de las mentes detrás de la creación de la voz de ChatGPT. Además, la compañía ha incorporado a reconocidos ingenieros e investigadores provenientes de gigantes como Meta, Anthropic, Google y Mistral.OpenAI y su crisis institucional tras las numerosas renunciasLa salida de Murati de OpenAI culminó un éxodo de talentos que venía registrando la empresa en 2024. En mayo, Ilya Sutskever, uno de los primeros empleados de OpenAI, se fue. En agosto, le siguió la baja de Jan Leike, un ingeniero que había trabajado durante años en la seguridad de los productos en conjunto con Sutskever. Ese mismo mes, renunció Schulman â??hoy en el equipo de Thinking Machines Labâ??, y al mismo tiempo, Greg Brockman, cofundador y colega cercano de Sam Altman, CEO de OpenAI, anunció que se tomaría un tiempo sabático hasta fin de año.A la salida de Murati, le siguieron dos ejecutivos importantes: Bob McGrew y Barret Zoph. Por un lado, McGrew, director de investigación, dijo que era momento de tomarse un descanso. Por otro, Zoph, exvicepresidente de investigación y hoy CTO de Thinking Machines Lab, afirmó que quería explorar nuevas oportunidades. En paralelo a estas renombradas renuncias, otros empleados clave también dejaron la empresa, generando un escenario de imagen institucional inestable para la grande tech.Cabe destacar que de los 13 fundadores de OpenAI, hoy quedan formalmente solo tres. ¿La hipótesis de este fenómeno? Los cambios estructurales que OpenAI está implementando en sus políticas de desarrollo y seguridad han generado cierta desconfianza en el círculo líder de la empresa. Uno de ellos: el cambio de una organización sin fines de lucro a una exclusivamente lucrativa, lo que podría traicionar las bases fundacionales de los modelos que están creando.Esto es especialmente preocupante debido a que OpenAI ya está en la carrera para desarrollar la AGI -una inteligencia artificial que puede hacer cualquier cosa propia del cerebro humano-. De acuerdo con The Vox, la fuga de cerebros fue un proceso de confianza que colapsó poco a poco. Daniel Kokotajlo, quien trabajó por casi dos años en el equipo de gobernanza de OpenAI, detalló que se unió a la empresa con la ilusión de que esta potencial tecnología se maneje con la responsabilidad necesaria. "Poco a poco, muchos nos dimos cuenta de que eso no ocurriría", reflexionó.
En las pruebas matemáticas, científicas y de codificación, Grok-3 supera a GPT-4o de OpenAI, a Google Gemini de Alphabet Inc, al modelo V3 de DeepSeek y a Claude de Anthropic, según informó xAI. Leer más
Por 97.400 millones de dólares, Musk y un grupo de inversores intentó adquirir la compañía de inteligencia artificial
Elon Musk ofrece 97 mil millones de dólares para comprar OpenAI, pero Sam Altman rechaza la oferta, intensificando la disputa sobre el rumbo de la empresa. Leer más
El CEO de Tesla y dueño de X hizo una oferta de u$s97.400 para comprar las acciones del directorio de la empresa detrás del desarrollo de ChatGPT. Por su parte, Altman rechazó la propuesta.
La empresa de Estados Unidos especializada en robots humanoides, FigureAI, acaba de romper su alianza con OpenAI para focalizar su trabajo en el desarrollo de modelos de inteligencia artificial (IA) propios. Así lo anunció su CEO, Brett Adcock, y prometió que en 30 días mostrarán "algo que nadie ha visto nunca" en el mundo de la robótica."Hoy tomé la decisión de abandonar nuestro Acuerdo de Colaboración con OpenAI. Figure logró un gran avance en la IA robótica de extremo a extremo, construida completamente internamente", escribió Brett en X el pasado martes. El objetivo de la colaboración entre ambas compañías era construir modelos de IA orientados a la robótica. Incluso, OpenAI había participado, en febrero de 2024, en una ronda de financiación de US$675 millones que valoró a Figure en US$2600 millones para iniciar su robot Figure 02.Today, I made the decision to leave our Collaboration Agreement with OpenAIFigure made a major breakthrough on fully end-to-end robot AI, built entirely in-houseWe're excited to show you in the next 30 days something no one has ever seen on a humanoid— Brett Adcock (@adcock_brett) February 4, 2025En otro posteo, Brett explicó la decisión de la firma: "Los Large Language Models (LLM) se están volviendo más inteligentes y, al mismo tiempo, más comercializados. Para nosotros, los LLM se han convertido rápidamente en la pieza más pequeña del rompecabezas; la parte mucho más difícil es diseñar nuevos modelos de IA que permitan un control de robots de alta velocidad (robots que trabajan en el mundo real)"."Los modelos de IA de Figure se construyen completamente internamente, lo que hace que las asociaciones de IA externas no solo sean engorrosas sino, en última instancia, irrelevantes para nuestro éxito", completó.Few additional thoughts:We can't outsource AI for the same reason we don't outsource actuators, batteries, or electronics - it's too critical to performanceLLMs are getting smarter yet more commoditized. For us, LLM's have quickly become the smallest piece of the puzzle, theâ?¦ https://t.co/tAn7YfZhKl— Brett Adcock (@adcock_brett) February 5, 2025En este escenario marcado por crecientes avances tecnológicos, FigureAI no es la única firma que está cambiando el rumbo de su estrategia. OpenAI, por ejemplo, decidió reconstruir su equipo de robótica. "Nuestro equipo de robótica se centra en desarrollar la robótica de uso general y avanzar hacia la inteligencia de nivel AGI en entornos dinámicos del mundo real", dice una reciente búsqueda laboral de la empresa. El mes pasado, comenzaron a contratar a nuevos especialistas en tecnología.Por su parte, FigureAI firmó un acuerdo con BMW Manufacturing para integrar robots humanoides en la producción automotriz, así como también informaron la llegada de un nuevo cliente, que sería "una de las empresas más grandes de Estados Unidos"."Nos da el potencial de enviar en grandes volúmenes, lo que impulsará la reducción de costos y la recopilación de datos de IA. Entre ambos clientes, creemos que hay un camino hacia 100.000 robots durante los próximos cuatro años", dijo Adcock en un posteo de LinkedIn.Hasta el momento, la compañía logró desarrollar un motor de datos que alimenta sus sistemas de IA incorporados, lo que permite que sus robots aprendan y se adapten al mundo real a través de soluciones de computación en la nube y en el edge. Esto le da a las máquinas la capacidad de responder a prompts y realizar tareas que incorporan lenguaje, visión y acción."Estamos trabajando en entrenar al robot para realizar tareas en casos de uso a altas velocidades y alto rendimiento", adelantó Adcock, e insistió que aprender sobre el uso de IA "es el único camino".Los últimos avances de la robóticaJunto con la IA, la robótica se presenta como la principal promesa de las empresas tecnológicas más importantes del mercado. La semana pasada, Nvidia presentó en redes sociales robots humanoides que simulan movimientos de grandes estrellas del deporte, como Cristiano Ronaldo y Lebron James.Esto es posible gracias a la técnica Aligning Simulation and Real Physics (ASAP), desarrollada por Nvidia e investigadores de la Universidad Carnegie Mellon, de Estados Unidos, que tiene como objetivo lograr que los robots ejecuten movimientos atléticos complejos.ð??? Can we make a humanoid move like Cristiano Ronaldo, LeBron James and Kobe Byrant?YES!ð?¤? Introducing ASAP: Aligning Simulation and Real-World Physics for Learning Agile Humanoid Whole-Body SkillsWebsite: https://t.co/XQga7tIfdwCode: https://t.co/NpEeJtVxpp pic.twitter.com/iZCVIdUrP2— Tairan He (@TairanHe99) February 4, 2025La típica celebración "Siu" de Ronaldo, que implica una rotación de 180 grados en el aire; la celebración "Silencer" de James, en la que se debe hacer equilibrio en una sola pierna; y el tiro fadeaway de Kobe Bryant, que requiere saltar y aterrizar en un pie, son algunas de las hazañas que pueden realizar estas máquinas. También son capaces de dar saltos frontales y laterales de más de un metro.Tesla también decidió apostar por el desarrollo de esta tecnología. En el marco del evento Nosotros, robot, realizado en octubre pasado en Los Ángeles, Elon Musk presentó unos robots humanoides bailarines llamados Optimus que, según dijo, algún día podrán realizar tareas domésticas y hacer compañía. "Creo que será el mayor producto de la historia", afirmó, y añadió que se vendería, según su estimación, entre 20.000 y 30.000 dólares. Tampoco dio plazos y en la presentación no quedó claro cuáles son exactamente las capacidades del robot, aunque se le vio caminando entre el público y sirviendo bebidas.La compañía viene desarrollando este robot hace tiempo e incluso dio a conocer que paga hasta 48 dólares la hora a los operadores de recogida de datos, encargados de entrenar al robot mediante el uso de trajes de captura de movimiento y gafas de realidad virtual.
El jefe de Tesla está dispuesto a utilizar cualquier medio que pueda para poner trabas a su oponente
La paz en Silicon Valley es solo una ilusión: una nueva batalla de poder enfrenta a dos referentes de la tecnología. Elon Musk y su equipo de inversores ofrecieron 97,6 mil millones de dólares para comprar las acciones del directorio sin fines de lucro de OpenAI, la empresa dirigida por Sam Altman, según confirmó The Wall Street Journal.Elon Musk ofreció 97.400 millones de dólares para comprar OpenAI, la compañía que creó ChatGPT, pero fue rechazado"No, gracias, pero si querés, te compro Twitter por 9,74 mil millones de dólares", escribió en redes sociales Altman, haciendo una clara referencia a la compra de Twitter â??hoy X â??que Musk hizo en 2022 por 44 mil millones de dólares. "Estafador", le respondió Musk sin escrúpulos. Esto, sin embargo, no es nada más ni nada menos que una nueva batalla en una confrontación que viene desenvolviéndose hace ya un tiempo.Swindler— Harry BÅ?lz (@elonmusk) February 10, 2025 Para comprender el origen de este conflicto hay que remitirse a 2015, cuando Musk y Altman cofundaron, junto a otras personas, OpenAI. En una primera instancia, esta compañía fue creada sin fines de lucro con el objetivo de construir una inteligencia artificial segura y beneficiosa para la humanidad.En 2018, sin embargo, Musk abandona la empresa, dejando atrás cualquier tipo de influencia sobre las futuras decisiones de la compañía. En este marco, un año después, OpenAI se convierte en una organización con fines de lucro limitado, con un segundo board que mantiene la misión de velar por la ideología y los valores sin fines de lucro.Ahora bien, cuando ChatGPT, creado por OpenAI, se revela al mundo, la compañía empieza a ganar más validación en el mercado y los límites de lo que podían hacer â??y ganar â??con la nueva tecnología comenzaron a desdibujarse. En específico, esto se evidenció cuando OpenAI anunció que está trabajando para convertirse en una empresa exclusivamente con fines de lucro, poniendo fin a los días de la construcción de una tecnología por beneficio a la sociedad.Consecuentemente, Musk comenzó a envolver a Altman y sus socios en un espiral de denuncias legales donde acusaba a los dirigentes de traicionar la misión fundacional de OpenAI al poner el beneficio económico por delante del beneficio para la humanidad. Particularmente, los escándalos legales comenzaron luego de que Microsoft anunciara una inversión millonaria en la empresa de Altman el pasado febrero. La transición hacia una empresa con fines de lucro parece inevitable y también inadmisible ante los ojos del dueño de X.Según Musk, este pacto financiero tenía como objetivo el desarrollo de la inteligencia artificial general, una tecnología capaz de razonar como un ser humano. El CEO de Tesla aseguraba que esto podía ser una amenaza para la humanidad, más si se hace con motivos lucrativos. Además, en agosto sumó a la demanda una denuncia por comportamiento anticompetitivo por parte de Altman y asociados, dejando en evidencia otra preocupación, menos humanitaria: OpenAI representa una amenaza para sus negocios.Con su nueva propuesta, Musk quiere comprar las acciones de la organización sin fines de lucro que todavía forma parte del consejo directivo y tiene influencia en las decisiones legales de OpenAI. Así se puede jactar de que la empresa cumpla esa misión inicial. O de que no sea un actor competitivo lo suficientemente amenazante. La oferta cuenta con el apoyo del fondo de inversión tecnológico Vy Capital, Xai, la empresa de inteligencia artificial de Elon Musk, así como Ari Emmanuel, un poderoso broker de Hollywood, entre otros inversores."Es hora de que OpenAI vuelva a ser la fuerza del bien de código abierto y centrada en la seguridad que una vez fue", justificó Musk a The Wall Street Journal, a través de su abogado Marc Toberoff. "Nos aseguraremos de que eso ocurra", agregó con certeza, aunque Altman ya haya rechazado públicamente la compra de la empresa.Aunque Musk no pueda adquirir la empresa, esta operación está dificultando la independencia financiera de OpenAI, según reporta The New York Times. Al proponer una cifra tan alta, impone un nuevo valor a la libertad de Altman y sus socios, que podría diferir de lo que ellos planeaban pagar al organismo sin fines de lucro que todavía forma parte de la empresa. "Es vital que la organización benéfica reciba una compensación justa por lo que su liderazgo le está quitando: el control sobre la tecnología más transformadora de nuestro tiempo", confirmó Toberoff.En paralelo, OpenAI está por cerrar su última ronda de inversión de 40.000 millones de dólares por el fondo japonés SoftBank. Este contrato haría que OpenAI se value en 300.000 millones de dólares, lo que la convertiría en una de las empresas privadas más cotizadas del mercado junto con SpaceX, de Musk, y ByteDance, perteneciente al dueño de TikTok. Esta nueva batalla pone un signo de interrogación a la inversión de SoftBank, ya que el fondo puede decidir esperar a ver cómo se desenvuelve el conflicto con Musk, retrasando uno de los acuerdos más beneficioso para OpenAI. O, entre líneas, dándole más tiempo a Musk para ver cómo accionar.
El CEO de Tesla y X, había ofrecido u$s97.000 millones para comprar la empresa de investigación e innovación de inteligencia artificial. El líder de OpenAI afirmó que su empresa no está a la venta y que se concentrará en continuar desarrollando su tecnología.
SAN FRANCISCO.- Un consorcio de inversores liderado por el multimillonario Elon Musk está ofreciendo 97.400 millones de dólares para comprar la organización sin fines de lucro que controla la startup de inteligencia artificial OpenAI, informó este lunes el Wall Street Journal.La oferta intensifica una larga batalla entre el presidente ejecutivo de OpenAI, Sam Altman, y Musk sobre el futuro de la startup en el corazón de un auge de la tecnología de IA generativa.El abogado de Musk, Marc Toberoff, dijo que presentó la oferta a la junta de OpenAI el lunes, según el informe. "Es hora de que OpenAI vuelva a ser la fuerza del bien de código abierto y centrada en la seguridad que una vez fue", citó el Wall Street Journal a Musk en una declaración proporcionada por Toberoff. "Nos aseguraremos de que eso ocurra".El director general de OpenAI, Sam Altman, rechazó rápidamente la oferta en X, la plataforma social de Musk, diciendo: "no, gracias, pero compraremos Twitter por 9,74 mil millones de dólares si quieres". Musk adquirió Twitter, ahora llamado X, por 44 mil millones de dólares en 2022.no thank you but we will buy twitter for $9.74 billion if you want— Sam Altman (@sama) February 10, 2025La oferta está respaldada por la empresa de IA xAI de Musk, que podría fusionarse con OpenAI tras un acuerdo, informó el Wall Street Journal.Musk cofundó OpenAI con Altman en 2015, pero la abandonó antes de que la empresa despegara. Más tarde, en 2023, fundó la empresa competidora de IA xAI.Precisamente, el magnate tecnológico presentó el año pasado una demanda contra OpenAI y Altman alegando que los fundadores de la compañía se habían desviado de la misión original de desarrollar inteligencia artificial para beneficio de la humanidad. La demanda afirmaba que los fundadores de OpenAI se pusieron en contacto con él en un principio para financiar una entidad sin fines de lucro centrada en el desarrollo de IA para beneficiar a la humanidad, pero que ahora estaba centrada en ganar dinero.OpenAI está tratando ahora de pasar de ser una entidad sin fines de lucro a una con fines de lucro, lo que dice que es necesario para asegurar el capital necesario para desarrollar los mejores modelos de inteligencia artificial.Agencias AP, DPA y Reuters
El futuro funcionario del gobierno de Donald Trump no deja de vigilar sus negocios y ahora va por todo contra la empresa detrás de ChatGPT. Cuál es la historia entre el magnate y el nacimiento de OpenAI.
El magnate y un un consorcio de firmas de inversión quieren comprar al fabricante de ChatGPT y volver a hacer que sea un laboratorio de investigación sin fines de lucro.
Musk, junto con su empresa de IA xAI y un consorcio de firmas de inversión, busca tomar el control del creador de ChatGPT con el objetivo de devolverlo a su propósito original como un laboratorio de investigación sin fines de lucro.
Sam Altman respondió en X, la red social propiedad del magnate, con un mensaje irónico: "No, gracias, pero te compramos Twitter por $9,74 mil millones si quieres"
En el contexto de la revolución tecnológica, Ualá apuesta por la inteligencia artificial en el sector financiero. Su primer paso en esta dirección es una alianza con OpenAI, con quien desarrolló la nueva versión de Uali, su chatbot para atención al cliente.La última actualización de este asistente está potenciada por el modelo GPT-4 de OpenAI. Esta tecnología permite al chatbot comprender con mayor precisión las consultas del usuario, ofrecer respuestas más rápidas y brindar asistencia personalizada. Sin embargo, la principal diferencia radica en su capacidad para interpretar las necesidades y el contexto con mayor empatía y profundidad."Este bot, además de comprender qué le sucede al usuario, puede detectar el tono, la intención y la emoción en cada conversación", explicó Mayra Sciarrillo, directora de Producto en Ualá, en una conferencia de prensa. "Esto es especialmente importante en casos donde el usuario enfrenta una situación crítica y necesita asistencia urgente", agregó.No obstante, la incorporación de inteligencia artificial presenta desafíos. Las alucinaciones en los chats conversacionales fue el principal. Pablo Guzzi, director de Datos y Análisis de Ualá, señaló a LA NACION que diseñaron varios parámetros para evitar que la inteligencia artificial inventara información o utilizara datos no proporcionados por el usuario en el chat. Además, se enfocaron en la base de conocimiento utilizada para el entrenamiento de la tecnología e incorporaron una variedad de información financiera para reducir el riesgo de respuestas erróneas.Otros obstáculos incluyen los altos costos de implementación y mantenimiento, así como cuestiones relacionadas con la ciberseguridad y la privacidad de los datos. Sobre este punto, Guzzi destacó: "Los datos e información que se usan están en un ambiente cerrado, protegido y cifrado exclusivo para Ualá. Así podemos dar garantías que es un ambiente seguro para nuestros usuarios".Según datos de la empresa, desde la implementación de la nueva versión de Uali, los casos no identificados han disminuido un 20%, lo que redujo la carga de trabajo de los equipos de soporte. Por el momento, esta versión está disponible para los usuarios en la Argentina, y la empresa planea expandirla a Colombia y México.Un avance para LatinoaméricaLa alianza con OpenAI, creadora de ChatGPT y pionera en inteligencia artificial generativa, representa un paso en la integración de Latinoamérica a la innovación digital. Con la revolución tecnológica concentrada en el hemisferio norte, los países en desarrollo suelen quedar al margen de la discusión.El último Índice Latinoamericano de Inteligencia Artificial, elaborado por el Centro Nacional de Inteligencia Artificial de Chile (CENIA), evaluó la preparación de 19 países de la región en esta materia. Chile encabeza la lista, seguido por Brasil y Uruguay. La Argentina, Colombia y México completan el grupo de los más avanzados.Sin embargo, el estudio destacó que, aunque la región duplicó su concentración de talento en inteligencia artificial, ningún país alcanza los niveles de las naciones del hemisferio norte. En este contexto, las alianzas con actores influyentes del sector tecnológico pueden contribuir a reducir la brecha."La revolución tecnológica impulsada por la inteligencia artificial tiene el potencial de convertirse en un motor clave para superar las trampas del desarrollo en América Latina y el Caribe", afirmó en la conferencia donde se debatió el Índice Javier Medina Vásquez, secretario ejecutivo adjunto de la Comisión Económica para América Latina y el Caribe.Particularmente, en el caso de Argentina, el presidente Javier Milei ha expresado su intención de posicionar al país como el cuarto polo de inteligencia artificial. Sus reuniones con Elon Musk y otros líderes del sector, como Sam Altman y Mark Zuckerberg, refuerzan esta estrategia. Según el mandatario, contamos con los recursos necesarios para desarrollar esta tecnología, que considera una oportunidad para el crecimiento económico."En Argentina, abundan las tierras inhóspitas y de baja temperatura en la Patagonia, lo que representa una ventaja para la instalación de servidores de inteligencia artificial", dijo Milei en la apertura de la Semana de la Inteligencia Artificial, realizada en el Polo Científico Tecnológico. "¿Y saben qué otra cosa necesitan los servidores? Energía, mucha, algo que también abunda en nuestra Patagonia", agregó.
La irrupción de nuevas tecnologías ha obligado a OpenAI a debatir si liberar parte de sus sistemas ante la creciente competencia
La fintech latinoamericana fundada en Argentina lanza Uali, una herramienta de inteligencia artificial generativa impulsada por el modelo GPT-4, en búsqueda de mejorar el proceso de atención al cliente a través de un chat bot que complementará el soporte humano. Leer más
El modelo no sólo promete mejorar la calidad de las interacciones, sino que también acercar capacidades avanzadas a millones de personas que antes no podían acceder a ellas.
En medio del revuelo por la aplicación china, la compañía dueña de ChatGPT estima que podría haber replicado su tecnología. Microsoft también investiga la "extracción ilegal" de datos. Leer más
La empresa de Sam Altman dice tener pruebas de que DeepSeek incurrió en una violación de la propiedad intelectual.Microsoft también está verificando la denuncia.
OpenAI ha señalado que ha encontrado evidencias de que DeepSeek ha utilizado sus modelos de Inteligencia Artificial (IA) para entrenar su modelo de código abierto, mediante la técnica de destilación, lo que puede ocasionar problemas de propiedad intelectual.La IA de DeepSeek lidera actualmente las listas de descargas en las tiendas de aplicaciones App Store y Google Play Store con su asistente de IA generativa gratuito. Asimismo, sus nuevos modelos de razonamiento R1 han generado un gran impacto en la industria, con respuestas de compañías como Nvidia y OpenAI poniendo en valor el avance en IA que ofrece.Sin embargo, la compañía liderada por Sam Altman ha señalado ahora que, tras llevar a cabo una investigación, han encontrado evidencias de que DeepSeek ha utilizado los modelos de OpenAI para entrenar sus propios modelos de código abierto.Así lo han detallado fuentes relacionadas con la compañía en declaraciones a Financial Times, quienes han señalado que se han identificado pruebas que apuntan a que DeepSeek ha utilizado una técnica denominada "destilación" para entrenar sus modelos.Destilación, el "truco" de DeepSeek para alcanzar a ChatGPTEn concreto, la destilación es una práctica de machine learning que permite transmitir los aprendizajes de un modelo de IA a otro. Así, posibilita que un modelo más pequeño (modelo alumno) imite el comportamiento de redes neuronales más grandes (modelo profesor), aprendiendo sus predicciones y utilizando sus datos.En este sentido, aunque se trata de una práctica habitual en el sector, OpenAI ha manifestado que, en el momento en el que dichos datos se utilizan fuera de la plataforma, puede suponer una violación de los términos de la compañía, donde se detalla que no se permite utilizar los resultados de sus modelos para "desarrollar modelos que compitan con los de OpenAI"."El problema es cuando lo sacas de la plataforma y lo haces para crear tu propio modelo para tus propios fines", ha explicado una de las fuentes al medio citado.Además de todo ello, se ha de tener en cuenta que, según ha recogido Bloomberg, OpenAI y Microsoft ya estuvieron investigando durante el pasado otoño a algunas cuentas que estaban utilizando la API de OpenAI para llevar a cabo destilación con sus modelos y filtrar sus datos, violando los términos del servicio. En concreto, aunque estas cuentas fueron bloqueadas, se cree que eran propiedad de DeepSeek.Por su parte, en un comunicado también recogido por Financial Times, OpenAI ha compartido que son conscientes de que empresas con sede en China "están constantemente tratando de destilar los modelos de las principales empresas de IA de Estados Unidos".Al respecto, la tecnológica ha subrayado la importancia de trabajar en colaboración con el gobierno de Estados Unidos para "proteger mejor los modelos más capaces de los esfuerzos de los adversarios y competidores para apoderarse de la tecnología estadounidense".
El reporte asegura que extrajeron una gran cantidad de datos utilizando la interfaz de programación de aplicaciones de OpenAI
la IA de China sacudió el mercado desde el momento de su irrupción. Por eso mismo, es observada e investigada por otras plataformas.
OpenAI anunció hoy la disponibilidad de Operator, una nueva herramienta dentro de la plataforma de servicios que cae bajo el paraguas de la inteligencia artificial generativa ChatGPT. Operator es un navegador web inteligente: puede entrar a cualquier sitio y realizar tareas allí por nosotros, porque entiende qué es lo que se despliega en pantalla, qué es un botón, una caja de texto, un link en una imagen, etcétera. Según explica la compañía, Operator es "un agente que puede ir a la web para realizar tareas por vos. Usando su propio navegador, puede mirar una página web e interactuar con ella escribiendo, haciendo clic y desplazándose." Al tiempo que aclara que es experimental, OpenAI advierte que Operator "es uno de nuestros primeros agentes, que son IA capaces de hacer el trabajo por usted de forma independiente: vos le asignás una tarea y él la ejecutará."Operator puede analizar lo que se ve en pantalla e interactuar con el sitio web simulando el mouse y el teclado a través de un navegador, lo que evitar tener que usar una API especializadasEntre los ejemplos de tareas repetitivas que OpenAI propone para usar Operator en la web está: completar formularioscomprar pasajes de aviónordenar alimentos en una tienda online crear memesSegún OpenAI, "la capacidad de utilizar las mismas interfaces y herramientas con las que interactúan los humanos a diario amplía la utilidad de la IA, ayudando a las personas a ahorrar tiempo en las tareas cotidianas y al mismo tiempo abre nuevas oportunidades de participación para las empresas."La compañía dice que ya está trabajando con DoorDash, Instacart, OpenTable, Priceline, StubHub, Thumbtack, Uber y otros para asegurarse de que la IA "entiende" esos sitios, para así optimizar su funcionamiento. Operator ya tiene competenciaOperator no es la primera IA generativa capaz de interactuar con un sitio web externo: la IA Claude 3.5 Sonnet de Anthropic tiene una función similar (también experimental) que anunció en octubre último; Google también trabaja en algo así, una herramienta conocida internamente como Project Jarvis y que permite que Gemini gestione Chrome y la interacción con una página web. De hecho, la posibilidad de interpretar un sitio web convencional como una persona era una de las promesas (fallidas) del Rabbit R1, el dispositivo presentado hace un año y que fue uno de los pioneros en llevar la IA a un dispositivo portátil. Aun así, Operator tendrá la innegable ventaja de debutar en la plataforma de IA generativa más popular, aunque no estará disponible para todos inicialmente: por ahora estará limitada a los usuarios Pro (que pagan US$ 200 al mes) en Estados Unidos entrando al sitio oficial. La intención de OpenAI es probar primero con estos usuarios y luego hacerlo disponible para los miembros de los planes Plus, Team y Enterprise.
Sam Altman Altman señaló que Stargate era como un fondo de riesgo, con OpenAI y SoftBank como socios generales. Oracle y y el fondo de Abu Dabi MGX completarían la lista. Leer más
Durante la mañana de este jueves la plataforma desarrollada por OpenIA, no permitía ingresar a la versión web: en la página aparecía un mensaje de error. Leer más
La plataforma no permite ingresar a la versión web y aparece siempre un mensaje de error
A mayor razonamiento, mayor uso de potencia computacional
Un funcionario de la Casa Blanca señaló que la asistencia podría aumentar hasta los USD 500.000 millones en los próximos cuatro años