El Portal de las Tecnologías para la Innovación

Categoría: El mundo al día

El crecimiento de Lenovo se acelera en el cuarto trimestre

El crecimiento de Lenovo se acelera en el cuarto trimestre del año fiscal 23/24 Lenovo  Group anunció los resultados del cuarto trimestre y del año fiscal 2023/24. Después de reanudar el crecimiento en el tercer trimestre, el Grupo informó un crecimiento interanual de los ingresos en todos los grupos de negocios en el cuarto trimestre, y los ingresos del Grupo aumentaron casi un 10 % interanual a 13.800 millones de dólares . El beneficio neto se duplicó año tras año hasta los 248 millones de dólares y la combinación de ingresos no relacionados con PC alcanzó un máximo histórico del 45 %. El desempeño del Grupo en el cuarto trimestre y el segundo semestre demuestra «cómo Lenovo superó la desaceleración de la industria el año pasado, capturó las enormes oportunidades de crecimiento presentadas por la IA y aceleró el impulso en todo el negocio», según un comunicado de prensa. Los ingresos para todo el año fiscal fueron de 56.900 millones de dólares y el beneficio neto fue de 1.000 millones de dólares. Desde la segunda mitad del año fiscal, Lenovo logró un crecimiento anual de los ingresos del 6 % y el margen neto se recuperó de una caída anual en el primer semestre para estabilizarse en el segundo semestre. El Grupo espera que la PC con IA, que se define como equipada con un agente personal de IA basado en interacciones naturales, computación heterogénea, base de conocimiento personal, conectada a un ecosistema abierto de aplicaciones de IA y con protección de privacidad y seguridad, crezca a partir de su actual posición premium a la corriente principal durante los próximos tres años, impulsando un nuevo ciclo de actualización para la industria. La IA híbrida también está impulsando una mayor demanda de infraestructuras de IA “y los clientes piden cada vez más soluciones y servicios de IA personalizados, en particular consultoría, diseño, implementación y mantenimiento de IA”. Según el presidente y director ejecutivo de Lenovo , Yuanqing Yang , los resultados del cuarto trimestre «demuestran claramente que no solo hemos reanudado el crecimiento en todos nuestros negocios, sino que nuestro impulso comercial se está acelerando, impulsado por las oportunidades sin precedentes que brinda la IA híbrida». NetMedia, Portugal.RB.Traducido al español

Leer más »

Lecciones de conducción para La investigación estadounidense de Waymo descubre más incidentes: informela IA

La NHTSA dice que su investigación de los vehículos autónomos Waymo ha descubierto más incidentes que generan preocupación La investigación de seguridad estadounidense en la división de conducción autónoma Waymo de Alphabet sobre el «comportamiento inesperado» de los vehículos autónomos ha descubierto más incidentes. Esto es según Reuters , que señaló que la Administración Nacional de Seguridad del Tráfico en Carreteras (NHTSA) había dicho el viernes que se había enterado de nueve incidentes adicionales que plantean preocupaciones sobre el rendimiento de los vehículos autónomos Waymo. A principios de este mes, la NHTSA había iniciado una investigación preliminar sobre docenas de incidentes relacionados con vehículos sin conductor de Waymo, que incluyen varios choques «de una sola parte» y posibles infracciones de las leyes de tránsito. Investigación preliminar Cabe recordar que la NHTSA ya está investigando a los proveedores rivales de servicios de robotaxi, GM Cruise y Zoox de Amazon. También está investigando al Tesla de Elon Musk por su programa de asistencia al conductor Autopilot. La investigación de la NHTSA sobre aproximadamente 444 robotaxis Waymo se produce después de que la Oficina de Investigación de Defectos (ODI) recibiera informes de 22 incidentes, incluidas 17 colisiones, que involucraron vehículos Waymo equipados con el sistema de conducción automatizada (ADS) de quinta generación de Waymo. Incidentes adicionales Pero ahora Reuters ha informado que la NHTSA, en una carta enviada a Waymo el viernes, dijo que se había enterado de 9 incidentes similares adicionales. La agencia dijo que varios incidentes bajo investigación “involucraron colisiones con objetos claramente visibles que se esperaría que un conductor competente evitara”. La NHTSA dijo que «los informes incluyen colisiones con objetos estacionarios y semiestacionarios, como puertas y cadenas, colisiones con vehículos estacionados y casos en los que (el sistema de conducción automatizada) pareció desobedecer los dispositivos o reglas de control de seguridad del tráfico». La agencia pidió a Waymo que respondiera una serie de preguntas antes del 11 de junio sobre los incidentes y proporcionara vídeos de todos los incidentes. Reuters señaló que Waymo no hizo comentarios de inmediato el viernes, pero la unidad Alphabet dijo anteriormente que continuaría trabajando con la NHTSA. Expansión de Waymo En febrero, Waymo había retirado del mercado 444 vehículos autónomos después de dos colisiones menores en rápida sucesión en Phoenix, Arizona. Los dos vehículos Waymo hicieron contacto con una “camioneta que era remolcada hacia atrás y en ángulo con respecto al vehículo remolcador” con unos minutos de diferencia entre sí en diciembre pasado. Ahora Waymo se enfrenta a una investigación preliminar de la NHTSA, que es el primer paso antes de que la agencia pueda exigir un retiro del mercado si cree que los vehículos representan un riesgo irrazonable para la seguridad. Waymo dijo en marzo que estaba comenzando a ofrecer servicios gratuitos de robotaxi sin conductor a miembros selectos del público en Los Ángeles. Ese mismo mes, Waymo también comenzó a ofrecer servicios autónomos para sus empleados en Austin, Texas, convirtiéndola en la cuarta ciudad más importante de transporte autónomo después de San Francisco, Phoenix y Los Ángeles. La compañía también comenzó recientemente a probar sus vehículos sin conductor en las carreteras estadounidenses como preparación para los viajes de pasajeros. NetMedia, Inglaterra.TJ. Traducido al español

Leer más »

El regulador del Reino Unido se niega a investigar el acuerdo de IA con Mistral de Microsoft

Semanas después de buscar comentarios sobre la asociación de Microsoft con Mistral AI, el regulador del Reino Unido dice que no califica para la investigación El regulador de competencia del Reino Unido se ha negado a investigar la asociación de Microsoft con la startup francesa de IA, Mistral AI. Hace unas semanas, la Autoridad de Mercados y Competencia del Reino Unido (CMA) había invitado a terceros interesados ​​a comentar sobre las asociaciones entre Microsoft y Mistral AI, así como Amazon y Anthropic . Pero ahora la CMA anunció que ha decidido que «la asociación de Microsoft Corporation con Mistral AI no califica para una investigación según las disposiciones de fusión de la Ley de Empresas de 2002». Microsoft-Mistral En febrero de este año, Microsoft había firmado “una asociación de varios años” con Mistral AI, con sede en París , lo que generó preocupaciones regulatorias en Europa. El acuerdo de Mistral con Microsoft generó dudas sobre las motivaciones de Mistral AI, porque durante las discusiones sobre la amplia Ley de IA de la UE , la nueva empresa francesa habría presionado para obtener exenciones para algunos sistemas de IA, advirtiendo que leyes demasiado estrictas obstaculizarían a las nuevas empresas europeas. posibilidades de competir con gigantes con sede en Estados Unidos. La asociación de Microsoft con Mistral AI se sumó a su inversión de 13 mil millones de dólares en OpenAI, con sede en San Francisco , que la CMA ya está investigando por violaciones antimonopolio. Sin embargo, Microsoft invirtió significativamente menos dinero en Mistral AI en comparación con OpenAI. De hecho, la inversión plurianual de 15 millones de euros (16 millones de dólares) de Redmond en Mistral AI hará que los modelos de IA de la compañía estén disponibles a través de la plataforma de computación en la nube Azure de Microsoft. Esa pequeña financiación de Microsoft se convertirá en una participación accionaria en la próxima ronda de financiación de Mistral AI. Interés regulatorio Hay un escrutinio regulatorio cada vez mayor del sector de la IA. En enero de 2024, la Comisión Europea dijo que estaba investigando si las inversiones de Microsoft en OpenAI podrían estar sujetas a las normas de fusión de la UE. Mientras tanto, la CMA del Reino Unido había comenzado en 2023 a investigar los Foundation Models (FM) , ya que el mercado continúa desarrollándose a un «ritmo vertiginoso». Esa investigación del pasado mes de septiembre identificó los riesgos asociados con los FM de IA y propuso siete principios rectores para los modelos básicos que sustentan los sistemas de IA. Luego, en abril, la CMA anunció que tenía “preocupaciones reales” con los AI Foundation Models (FM), que están controlados por un pequeño número de empresas de tecnología. Ahora la CMA del Reino Unido ha llegado a la conclusión de que la asociación de Microsoft con Mistral AI no califica para una mayor investigación.NetMedia, Inglaterra.TJ. Traducido al español

Leer más »

Heineken planifica sus necesidades con la solución de inteligencia artificial de Blue Yonder

Blue Yonder tiene como objetivo permitir una mayor sostenibilidad a lo largo de la cadena de suministro de la cervecería internacional. Heineken implementará la solución de cadena de suministro SaaS basada en microservicios, nativa de la nube, para mejorar la precisión del pronóstico al considerar variables dinámicas externas e internas. Menos depreciación, menos movimientos de mercancías “Trabajamos continuamente para mejorar los procesos de nuestra cadena de suministro. Nuestro objetivo es convertirnos en la cervecería más conectada digitalmente del mundo y crear una experiencia óptima para el cliente mejorando el rendimiento funcional de nuestra planificación de la demanda. Con una planificación adecuada del suministro y la respuesta, esto también podría tener un impacto positivo en nuestros objetivos de sostenibilidad, por ejemplo a través de una menor depreciación y menos movimientos de mercancías”, explica Corneel Hindriks de Heineken. Todos los datos reales y comerciales que Heineken necesita están disponibles en una única nube. Los procesos de planificación totalmente integrados permiten decisiones mejores, más rápidas y más completas. La combinación de los mejores resultados de la previsión estadística y el aprendizaje automático avanzado logra una mayor precisión de la previsión con menos errores de sesgo. Al comprimir de manera flexible el ciclo de planificación, los planificadores pueden responder de acuerdo con la estrategia en un momento dado, en lugar de hacerlo según un cronograma fijo. Los desarrollos dinámicos son un gran desafío Las empresas de bienes de consumo se enfrentan actualmente a desafíos causados ​​por las fluctuaciones de la demanda relacionadas con la inflación, las interrupciones de la cadena de suministro, los cambios en los hábitos de los consumidores y una creciente demanda de productos y procesos más sostenibles. Estos desarrollos dinámicos representan un desafío importante para los métodos de pronóstico convencionales. La solución de planificación de la demanda cognitiva de Blue Yonder, impulsada por Microsoft Azure, aborda estos desafíos con una nueva generación de capacidades basadas en IA. Estos transformarán la forma en que las empresas de todo el mundo colaboran, pronostican, planifican y toman decisiones. NetMedia.Alemania. Traducido al español

Leer más »

La inteligencia artificial y la computación en la nube están liderando el camino en la transformación bancaria, según NTT Data

Más del 60% de los encuestados afirma que la IA generativa está facilitando la transición de aplicaciones a la nube. La industria bancaria se encuentra en medio de una transformación, adoptando tecnologías de vanguardia para adaptarse a las demandas del mercado y brindar servicios más ágiles y centrados en el cliente. Esta es la principal conclusión del informe “The Digital Horizon: Banking’s Shift from Mainframe to AI-Driven Cloud Infrastructure” publicado por NTT DATA, una empresa líder en negocios digitales y servicios de TI. El informe, basado en una encuesta realizada a 650 ejecutivos bancarios de todo el mundo, destaca el cambio significativo que está experimentando la industria. Según los hallazgos, los bancos recurren cada vez más a la inteligencia artificial (IA) y los servicios en la nube como impulsores clave de esta transformación. IA y computación en la nube en el sector bancario Entre las tendencias identificadas en el informe destaca la resiliencia de los sistemas heredados basados ​​en infraestructuras tradicionales, con un 63% de las entidades todavía operando en este tipo de entornos. Sin embargo, más del 60% de los encuestados señala que la IA generativa está facilitando la transición de aplicaciones a la nube, marcando una fase transformadora hacia esta tecnología. El estudio también revela que el apoyo de la junta directiva es crucial para la IA y las iniciativas relacionadas con la nube, y el 90% de los ejecutivos informan que sus proyectos cuentan con apoyo en este sentido. Si bien la mayoría de los bancos están integrando la inteligencia artificial en sus tecnologías, el 30% todavía se encuentra en las primeras etapas de adopción. Además, el 80% carece de un marco estratégico para la adopción de la IA generativa, lo que pone de relieve la necesidad de mejorar las capacidades en este ámbito. En cuanto a la nube, se posiciona como un facilitador de la innovación en los procesos bancarios, y el 36% de los encuestados citó la flexibilidad y la escalabilidad como factores clave para la migración. Asimismo, el 25% reconoce una tendencia creciente en la migración a la nube impulsada por los avances en IA, lo que señala una nueva era de colaboración entre estas tecnologías para acelerar la modernización y transformación de la industria. Rápida adopción de la IA Kaz Nishihata, director y vicepresidente ejecutivo senior de NTT DATA Group Corporation, comentó: “Los bancos están evolucionando tecnológica y culturalmente. La rápida adopción de la IA y la nube está redefiniendo los modelos de negocio y estableciendo nuevos estándares en el liderazgo de la industria, permitiendo servicios más rápidos, seguros y personalizados”. Por su parte, José Manuel Pérez Bajo, socio de Banca de NTT DATA, señaló que “impulsar el cambio, si bien es un gran desafío, también representa una oportunidad para la transformación de la banca”. Añadió que NTT DATA está ayudando a sus clientes de la industria a modernizar la tecnología, aprovechando la IA generativa y los entornos de nube para impulsar la seguridad, mejorar la resiliencia e innovar. La evolución hacia un modelo más ágil y centrado en el cliente es imparable, y la banca está a la vanguardia de esta transformación, aprovechando el potencial de la inteligencia artificial y la nube para ofrecer servicios más eficientes y personalizados.NetMedia, Europa.AAH.Traducido al español

Leer más »

Red Hat Summit 2024: resumen de anuncios clave

Red Hat Summit 2024 sirvió de escenario para la presentación de las últimas innovaciones y colaboraciones de la empresa. Red Hat dio a conocer una serie de importantes innovaciones en inteligencia artificial (IA) y automatización de políticas en Red Hat Summit 2024 en Denver, Colorado (EE. UU.). La introducción de «Policy as Code» en su plataforma Red Hat Ansible Automation representa un avance clave para abordar las complejidades inherentes a la IA a escala al proporcionar gobernanza y coherencia en la nube híbrida. Además, Red Hat ha ampliado su cartera Lightspeed para incluir IA generativa, promoviendo la eficiencia y accesibilidad de las tareas de TI. Las colaboraciones estratégicas con Intel y AMD tienen como objetivo impulsar el uso empresarial de la IA, ofreciendo soluciones de extremo a extremo que abarcan desde el centro de datos hasta el borde. Finalmente, el anuncio de Podman AI Lab demuestra el compromiso de Red Hat con la democratización de la IA al proporcionar a los desarrolladores una herramienta intuitiva para crear, probar y ejecutar aplicaciones de IA en entornos de contenedores. Estas iniciativas reflejan el impulso continuo de Red Hat hacia la innovación en IA y la simplificación de su adopción en diversos entornos empresariales. Política como código Red Hat ha introducido «Policy as Code» como parte de su plataforma Red Hat Ansible Automation, con el objetivo de abordar las complejidades de la inteligencia artificial a escala. Esta capacidad automatizada busca impulsar la automatización de políticas específicas en la nube híbrida, aportando gobernanza y mayor coherencia tanto a la explosión de la IA como a las operaciones de TI tradicionales. La implementación de políticas como código permite aplicar estándares de cumplimiento críticos a medida que surgen aplicaciones y sistemas generados por IA, lo que convierte a la automatización en un componente estratégico en la evolución de la IA. El desafío de adoptar y escalar cargas de trabajo de IA junto con la nube híbrida genera más complejidad y expansión. Las políticas como código ayudan a poner orden en esta expansión, tanto actual como potencial, al hacer cumplir estándares críticos de cumplimiento a medida que surgen aplicaciones y sistemas generados por IA, haciendo de la automatización un componente estratégico real en la evolución de la IA. Portafolio de nubes de Red Hat Lightspeed Red Hat también anunció la expansión de Red Hat Lightspeed para incluir IA generativa en su cartera de nube híbrida. Esta iniciativa tiene como objetivo hacer que las tareas de TI sean más eficientes y accesibles para todos los niveles. Red Hat Lightspeed, integrado en plataformas como Red Hat OpenShift y Red Hat Enterprise Linux, aprovecha la IA para mejorar la productividad y la eficiencia de los equipos que utilizan estas plataformas, ayudando a cerrar las brechas de habilidades en la industria y simplificando la gestión del ciclo de vida de las aplicaciones. Además, Red Hat Lightspeed aplicará IA generativa en Red Hat OpenShift para simplificar la gestión del ciclo de vida de las aplicaciones en los clústeres de OpenShift, lo que permitirá a los usuarios desarrollar habilidades más rápidamente y a los expertos utilizar la plataforma de manera más eficiente. Esto incluye funciones como sugerencias de escalado automático y recomendaciones de ajuste basadas en patrones de uso. Además, Red Hat Enterprise Linux Lightspeed ayudará a simplificar la implementación, la gestión y el mantenimiento de entornos Linux, aprovechando las décadas de experiencia de Red Hat en Linux empresarial y utilizando IA generativa para ayudar a los clientes a responder más rápidamente a problemas y preguntas comunes. Procesadores Intel al límite Red Hat e Intel buscan impulsar el uso empresarial de la inteligencia artificial (IA) a través de Red Hat OpenShift AI. Esta alianza tiene como objetivo ofrecer soluciones de inteligencia artificial de extremo a extremo que aprovechen los productos de inteligencia artificial de Intel, incluidos los aceleradores Intel Gaudi, los procesadores Intel Xeon y Core, y las GPU Intel Arc. La infraestructura de nube híbrida resultante permitirá a las organizaciones desarrollar, entrenar e implementar modelos de IA de manera fluida y escalable desde el centro de datos hasta el borde, garantizando la interoperabilidad y la portabilidad de la carga de trabajo. Red Hat OpenShift AI proporciona una base sólida para aplicaciones de IA en cualquier entorno, desde la nube hasta el borde, optimizando el soporte para los productos Intel AI. Esta colaboración también implica certificar las soluciones de hardware de Intel en Red Hat OpenShift AI, garantizando la interoperabilidad y habilitando capacidades de AI de extremo a extremo. A través del enfoque de código abierto, Red Hat e Intel apuntan a acelerar la implementación de soluciones de IA en cualquier plataforma, lo que resulta en un tiempo de comercialización más rápido y la creación de componentes básicos de IA rentables a escala. Colaboración con GPU AMD Red Hat y AMD colaborarán para ampliar las opciones de los clientes en la implementación de cargas de trabajo de inteligencia artificial (IA). Esta asociación se centra en permitir que los operadores de GPU AMD en Red Hat OpenShift AI proporcionen la potencia de procesamiento necesaria para las cargas de trabajo de IA en la nube híbrida, facilitando a las organizaciones la adopción de la IA. Al trabajar juntos, Red Hat y AMD tienen como objetivo fomentar la innovación y cultivar un entorno donde las soluciones de IA puedan adaptarse de manera eficiente a las necesidades comerciales únicas. Las GPU de AMD en Red Hat OpenShift AI permiten a los clientes acceder, implementar y aprovechar un operador de GPU validado, agilizando los flujos de trabajo de IA y cerrando brechas en las cadenas de suministro de GPU. Esta colaboración combina la experiencia en hardware de IA de AMD con la experiencia en software de IA y código abierto de Red Hat, proporcionando a los clientes herramientas validadas, pruebas y mejoras para una implementación eficiente de la IA. Además, se espera que esta colaboración impulse la innovación en IA al ofrecer a los clientes una mayor variedad de recursos de GPU en los entornos de nube

Leer más »

Los pagos instantáneos desafían a las tarjetas

Las transacciones de pago instantáneo crecerán un 161 % en los próximos 5 años, superando los 58 mil millones de dólares en 2028. Nunca habíamos tenido tantas opciones de pago como ahora: efectivo, tarjeta, billeteras digitales, PayPal… A pesar de ello, el efectivo sigue siendo el método de pago preferido, aunque algo está cambiando, sobre todo ahora que los teléfonos son cada vez más inteligentes y la tecnología NFC está presente en más dispositivos. Cada vez es más popular la posibilidad de pagar con un simple gesto del teléfono. Precisamente por eso, los expertos auguran un auge de las transacciones de pago instantáneo. Según el estudio “Global Instant Payments Market 2024-2028”, de Juniper Research, el mercado global de pagos instantáneos superará los 58 mil millones de dólares en 2028, es decir un crecimiento del 161% frente a los 22 mil millones con los que se espera cerrar este ejercicio. . Los expertos de la consultora sostienen que este crecimiento estará respaldado por la creciente popularidad de las carteras A2A (cuenta a cuenta), como iDEAL o Twint, junto con la influencia de la banca abierta. Juniper Research explica que estas soluciones te permiten realizar transacciones directamente desde tu cuenta bancaria sin tener que utilizar tu tarjeta, ofreciendo así varias ventajas. Por un lado, de hecho, se reducirían los costes para los comerciantes, al no tener que pagar las comisiones asociadas al uso de la tarjeta. Por otro lado, reduciría la complejidad y aumentaría la comodidad para los usuarios, que podrán pagar directamente con su teléfono. Además, los pagos instantáneos significan que la otra parte puede recibir el dinero en tan sólo 10 segundos o menos, y ambos reciben la confirmación del pago en menos de un minuto: como puedes imaginar, esto no sólo es importante por una cuestión de agilidad, sino también de una mayor confianza por parte de los usuarios hacia estos sistemas. La banca abierta promueve pagos instantáneos La consultora destaca el impacto que tendrá la banca abierta en los pagos instantáneos, ya que permite que las billeteras digitales disfruten de los pagos bancarios sin tener que estar necesariamente asociadas a bancos individuales. De esta manera, el informe predice la capacidad de acceder de forma rápida y segura a cuentas corrientes a través de la banca abierta, junto con billeteras A2A respaldadas por bancos, aumentando el volumen de transacciones de pago instantáneo por parte de los consumidores de 252 mil millones en 2024 a 600 mil millones en 2028. Juniper Research explica que las billeteras A2A se utilizan ampliamente para realizar transferencias de dinero entre particulares, como pagos informales o préstamos entre amigos y familiares. Por ejemplo, el estudio informa que una de las razones detrás de la popularidad de la solución es la división de los pagos entre varios usuarios. Sin embargo, existen algunos obstáculos que podrían complicar la difusión de esta solución entre los consumidores. Por ejemplo, la empresa detrás del estudio cita la necesidad de una mayor aceptación de este tipo de pago entre los comerciantes, tanto en establecimientos físicos como online. “Para aumentar la adopción, sugerimos que los comerciantes promuevan su uso entre los consumidores ofreciendo descuentos a quienes utilicen pagos de este tipo”, comenta Greenwood. «Al apoyar este método, los comerciantes disfrutarán de comisiones más bajas por cada transacción en comparación con el uso clásico de tarjetas», comenta Michael Greenwood, autor del estudio.NetMedia, Italia, traducido al español

Leer más »

La UE amplía las investigaciones sobre las importaciones y subsidios chinos

Después de que Estados Unidos impusiera aranceles del 100 por ciento a ciertos productos chinos, Europa amplía sus investigaciones sobre productos chinos. La Unión Europea ha ampliado sus investigaciones sobre productos chinos, centrándose en las importaciones y los subsidios pagados a los fabricantes chinos. Reuters informó que la Unión Europea inició esta semana una investigación sobre productos laminados de hierro o acero chapados o recubiertos con estaño procedentes de China, en un último esfuerzo por proteger a los fabricantes locales. Se produce después de que Estados Unidos, como se esperaba , impusiera esta semana aranceles del 100 por ciento a los vehículos eléctricos (EV) fabricados en China. Estados Unidos también impuso aranceles de distintos montos a los semiconductores, el acero y el aluminio, las baterías, las células solares, los equipos médicos y las grúas de barco a costa de fabricación china. Subvenciones, dumping La investigación de la Unión Europea sobre productos chinos de hojalata, hierro o acero se suma a otras investigaciones en curso sobre productos chinos, señaló Reuters. La UE también ha iniciado varias investigaciones sobre si los productores chinos de tecnologías limpias están invirtiendo bienes subsidiados en los mercados de la UE y si las empresas de propiedad china se benefician injustamente de los subsidios mientras operan dentro de la Unión Europea. La Comisión Europea, que está llevando a cabo las investigaciones, dice que su objetivo es evitar la competencia desleal y la distorsión del mercado. La medida se produce en medio de una creciente guerra comercial entre Occidente y China. Investigaciones actuales de la UE El estado actual de las investigaciones de la UE sobre productos chinos es el siguiente:

Leer más »

GPT-4o: ¿dónde, cuándo y para quién?

OpenAI está orquestando un despliegue muy gradual de GPT-4o, incluidas sus capacidades multimodales. GPT-4o, ¿más rápido que GPT-4 Turbo para generar texto? OpenAI lo afirma… y varios comentarios lo confirman . Los usuarios parecen más divididos en cuanto al rendimiento. OpenAI anuncia un equivalente potencial al de GPT-4 Turbo para texto, razonamiento y código. Asegura que GPT-4o es mejor en otros idiomas además del inglés. Lo mismo ocurre con la visión –que las pruebas validan– y con el audio. GPT-4o, una versión restringida en el lanzamiento Para experimentar esta última característica, tendrás que esperar. Lo mismo ocurre con el vídeo “en tiempo real”: por el momento hay que dividirlo en secuencias de imágenes. OpenAI cree que todavía necesita trabajar* en infraestructura, sobreentrenamiento y seguridad. El tiempo de entrega debe medirse en meses. Mientras tanto, comenzará una prueba de estas modalidades en un círculo restringido (versión alfa) en ChatGPT Plus y en la API. GPT-4o solo está disponible en ChatGPT Plus. También está disponible en el plan Team, estará disponible “pronto” en la edición Enterprise… y también está disponible en la versión gratuita. A nivel de API, se encuentra en los puntos finales de finalización de chat, asistentes y lotes . OpenAI también brinda acceso a él en su área de juegos . Como Microsoft en términos de la oferta del servicio Azure OpenAI (en la región de la nube de EE. UU.). GPT-4o, también en ChatGPT Gratis La base de conocimientos del GPT-4o finaliza en octubre de 2023. Es decir, antes que la del GPT-4 Turbo (diciembre de 2023). La ventana de contexto es la misma (128k; salida máxima de 4k). La inferencia, por otro lado, cuesta la mitad ($5 por millón de tokens en entrada; $15 en producción). Y los límites de rendimiento son más altos en ChatGPT (x 5, a 10 millones de tokens por minuto**) que en la API (de 30k TPM y 500 RPM en el nivel 1 a 5M TPM y 10k RPM en el nivel 5). GPT-4o también utiliza una nueva versión del codificador TikTok. Esto optimiza la producción de texto, particularmente en idiomas orientales (hay ejemplos de -25% de tokens en japonés). En las versiones pagas de ChatGPT, los GPT todavía usan GPT-4. OpenAI planea integrar GPT-4o «en las próximas semanas».En la versión gratuita, agotar la cuota de GPT-4o también impedirá el uso de GPT. Limitaciones de navegación, análisis de datos y carga de archivos están separados… pero compartidos entre ellos. Funciones específicas para el análisis de datos. Aunque está cerca de GPT-4 Turbo en términos de rendimiento, GPT-4o es actualmente el único que admite las últimas capacidades agregadas al bloque de Análisis de datos avanzado (anteriormente Code Interpreter). Esto permite a ChatGPT realizar operaciones como: – Detección y corrección de anomalías (valores faltantes o fuera de rango, líneas duplicadas, tipos de datos incorrectos, etc.)– Agregación/integración (sumas, promedios, desviaciones estándar, fusión de identificadores compartidos, etc.)– Estadísticas comparativas, correlación/ regresión y series de tiempo El análisis de datos avanzado también puede crear tablas y gráficos (usa pandas y Matplotlib). Los gráficos de líneas y barras, como los gráficos circulares y los diagramas de dispersión, son la mayoría de las veces interactivos… siempre que utilice GPT-4o. También necesitarás usar este modelo para aprovechar la vista expandible (interfaz de pantalla completa, la discusión pasa a un panel lateral) y la importación de archivos desde Google Drive y OneDrive. * El modo de voz de GPT-3.5 y GPT-4 implica distintos modelos de reconocimiento y síntesis de voz, intercalados antes y después del LLM. Por lo tanto, al procesar esta última una transcripción, perdemos elementos como el tono, el entorno sonoro y la identificación de los hablantes. Con GPT-4o, una única red neuronal procesará todo tipo de contenidos y, por tanto, de forma más coherente. ** Estos límites se aplican a la cantidad de tokens . No para el volumen de mensajes. En el lanzamiento, el límite para GPT-4o era de 80 mensajes cada tres horas en ChatGPT Plus. Contra 40 con GPT-4. NetMedia, Francia.CB.Traducido al español Foto de ilustración © maciek905 – Adobe Stock

Leer más »
Scroll al inicio