El Portal de las Tecnologías para la Innovación

Chubut Digital

El premio Nobel Geoffrey Hinton es el «padrino de la IA». He aquí una oferta que no debería rechazar…

La firme creencia del científico informático en el potencial de las redes neuronales ayudó a desbloquear el aprendizaje automático. La firme creencia del científico informático en el potencial de las redes neuronales ayudó a desbloquear el aprendizaje automático. Pero sería prudente que recordara la experiencia de un colega galardonado. En 2011, Marc Andreessen, un inversor de riesgo con aspiraciones a convertirse en un intelectual público, publicó un ensayo titulado “Por qué el software se está comiendo al mundo”, en el que predecía que el código informático se apoderaría de amplios sectores de la economía. Trece años después, el software parece estar abriéndose paso también en el mundo académico. En cualquier caso, esta es una posible conclusión que se puede sacar del hecho de que el informático Geoffrey Hinton comparte el premio Nobel de Física de 2024 con John Hopfield, y que el informático Demis Hassabis comparte la mitad del premio Nobel de Química con uno de sus colegas de DeepMind, John Jumper. El premio a Hassabis y Jumper era, en cierto modo, previsible, ya que han construido una máquina ( AlphaFold2 ) que permite a los investigadores resolver uno de los problemas más difíciles de la bioquímica: predecir la estructura de las proteínas, los componentes básicos de la vida biológica. Su máquina ha sido capaz de predecir la estructura de prácticamente todas las 200 millones de proteínas que los investigadores han identificado, por lo que es un gran logro para la química. Pero Hinton no es físico. De hecho, una vez lo presentaron en una conferencia académica como alguien que había “fracasado en física, había abandonado la psicología y luego se había unido a un campo sin ningún estándar: la inteligencia artificial”. Y pasó un año después de graduarse trabajando como carpintero. Sin embargo, es el tipo que encontró el método (“ retropropagación ”) que permite que las redes neuronales aprendan, que fue una de las dos claves que desbloquearon el aprendizaje automático y desencadenaron el actual auge frenético de la IA. (La otra fue la invención del modelo de transformador por parte de los investigadores de Google en 2017). Seamus Heaney describió la experiencia de ganar un Nobel como «ser golpeado por una avalancha mayoritariamente benigna» Pero ¿dónde está la física en todo esto? Eso lo dice Hopfield, con quien Hinton comparte el premio. “Las redes de Hopfield y un desarrollo posterior de ellas, llamadas máquinas de Boltzmann, se basaban en la física”, explicó Hinton al hombre del New York Times . “Las redes de Hopfield utilizaban una función de energía, y la máquina de Boltzmann utilizaba ideas de la física estadística. Así que esa etapa en el desarrollo de las redes neuronales dependía –en gran medida– de ideas de la física”. Así que todo está bien, pero los medios suelen describir a Hinton como “el padrino de la IA”, lo que tiene un tono vagamente siniestro. En persona es todo lo contrario: alto, amable, cortés, cerebral y dotado de un ingenio irónico y ocasionalmente cáustico. Cuando Cade Metz le preguntó cuál era su reacción cuando recibió la noticia del premio, respondió que estaba “conmocionado, asombrado y estupefacto”, que supongo que es lo que dice la mayoría de la gente. Pero en 2018 compartió el premio Turing (el equivalente al Nobel en informática) con Yoshua Bengio y Yann LeCun, por su trabajo sobre el aprendizaje profundo. Así que siempre estuvo en la primera división. Es solo que no hay un premio Nobel en informática. Dada la forma en que el software se está devorando el mundo, tal vez eso debería cambiar. Hay un viejo chiste que dice que la clave para convertirse en premio Nobel es “vivir más” que tus rivales. Hinton, que ahora tiene 77 años, claramente tomó nota. Pero en realidad lo más admirable de él es la tenaz persistencia con la que siguió creyendo en el potencial de las redes neuronales como clave para la inteligencia artificial mucho después de que la idea hubiera sido desacreditada por la disciplina. Dado cómo funciona el mundo académico, especialmente en una disciplina de rápido desarrollo como la informática, eso requería una determinación y una confianza en sí mismo excepcionales. Tal vez lo que lo mantuvo en marcha en sus momentos más oscuros fue la idea de que su tatarabuelo era George Boole, el matemático del siglo XIX que inventó la lógica que sustenta todo esto digital. También hay que pensar en el impacto que el premio tiene en la gente. Cuando llegó la noticia del premio a Hinton pensé en Seamus Heaney, que recibió el premio de literatura en 1995. Describió la experiencia como “ser golpeado por una avalancha mayoritariamente benigna”. Nótese que “mayoritariamente”: una de las consecuencias de un Nobel es que los ganadores se convierten inmediatamente en propiedad pública, de la que todo el mundo y su perro quieren una porción. “Todo lo que hago hoy en día es ‘aparecer’”, escribió Heaney resignado a un amigo en junio de 1996. “Soy una función de horarios, no un agente de mi propio ser. Y va a ser así durante semanas y meses más… Cualquiera que sea el efecto Estocolmo en última instancia, su resultado inmediato es un deseo de dejar el trabajo y empezar de nuevo in propria persona (en mi propia persona)”. Entonces… Nota para Geoff: muchas felicitaciones. Y mantén el control de tu calendario. Theguardian. J.N. Traducido al español

El premio Nobel Geoffrey Hinton es el «padrino de la IA». He aquí una oferta que no debería rechazar… Leer más »

Aprendizaje automático combinado con radiómica y características de aprendizaje profundo extraídas de imágenes de TC: un nuevo modelo de IA para distinguir tumores ováricos benignos de malignos

Ya-Ting Jan , La reina Pei Shan , Wen-Hui Huang , Ling Ying Chou , Shih Chieh Huang , Rey Jing-Zhe ,Pei-Hsuan Lu , Lin Dao Chen , Chun-Sheng Yen , Ju-Ping Teng , Greta SP Mok , Shih Cheng-Ting yTung-Hsin Wu  Perspectivas sobre imágenes volumen 14 , Número de artículo:  68 ( 2023 ) Citar este artículo 3962 Accesos I 14 Citas I 4 Altmétrica I Métrica Abstracto Fondo Desarrollar un modelo de inteligencia artificial (IA) con características radiómicas y de aprendizaje profundo (DL) extraídas de imágenes de TC para distinguir tumores de ovario benignos de malignos. Métodos Inscribimos a 149 pacientes con tumores de ovario confirmados patológicamente. Se incluyeron 185 tumores en total y se dividieron en conjuntos de prueba y entrenamiento en una proporción de 7:3. Todos los tumores se segmentaron manualmente a partir de imágenes de TC con contraste preoperatorias. Las características de las imágenes de TC se extrajeron mediante radiómica y DL. Se construyeron cinco modelos con diferentes combinaciones de conjuntos de características. Los tumores benignos y malignos se clasificaron utilizando clasificadores de aprendizaje automático (ML). El rendimiento del modelo se comparó con cinco radiólogos en el conjunto de prueba. Resultados  Entre los cinco modelos, el modelo con mejor desempeño es el modelo de conjunto con una combinación de radiómica, DL y conjuntos de características clínicas. El modelo logró una precisión del 82%, una especificidad del 89% y una sensibilidad del 68%. En comparación con los resultados promedio de los radiólogos jóvenes, el modelo tuvo una mayor precisión (82% frente al 66%) y especificidad (89% frente al 65%) con una sensibilidad comparable (68% frente al 67%). Con la ayuda del modelo, los radiólogos jóvenes lograron una mayor precisión promedio (81% frente al 66%), especificidad (80% frente al 65%) y sensibilidad (82% frente al 67%), acercándose al desempeño de los radiólogos experimentados. Conclusiones  Desarrollamos un modelo de IA basado en TC que puede diferenciar tumores ováricos benignos y malignos con gran precisión y especificidad. Este modelo mejoró significativamente el desempeño de los radiólogos con menos experiencia en la evaluación de tumores ováricos y podría orientar a los ginecólogos para brindar mejores estrategias terapéuticas para estas pacientes. Puntos clave Fondo El cáncer de ovario es la principal causa de muerte relacionada con el cáncer ginecológico [ 1 ], y un diagnóstico erróneo puede retrasar el tratamiento y empeorar el pronóstico. La derivación acelerada de pacientes con cáncer de ovario a un oncólogo ginecológico para una estadificación quirúrgica completa y una citorreducción óptima se correlaciona con mejores tasas de supervivencia [ 2 ]. Por el contrario, los pacientes con tumores ováricos benignos solo necesitan un tratamiento conservador o una cistectomía laparoscópica [ 3 ]. Por lo tanto, la distinción precisa entre tumores ováricos benignos y malignos es de suma importancia para guiar el tratamiento y sigue siendo un gran desafío en la práctica clínica. Actualmente, la distinción entre tumores ováricos benignos y malignos se basa en gran medida en la apariencia de las imágenes [ 4 , 5 , 6 ]. La ecografía suele ser la herramienta de detección por imágenes de primera línea. Debido a la excelente resolución espacial y la amplia disponibilidad, a menudo se solicita la tomografía computarizada (TC) para una mayor caracterización del tumor. Sin embargo, una diferenciación definitiva entre tumores ováricos benignos y malignos mediante TC sigue siendo un desafío, especialmente para excluir la posibilidad de malignidad en tumores quísticos multiseptados. Dado que los tumores ováricos benignos superan en gran medida a los malignos, no es raro que las pacientes con tumores de características de imagen indeterminadas se sometan a cirugía y luego se demuestre que los tumores son benignos. Se estima que aproximadamente el 28% de las ooforectomías realizadas son de tumores benignos [ 7 ]. Estas cirugías innecesarias representan una gran preocupación clínica con consecuencias a largo plazo de disminución de la fertilidad y menopausia prematura [ 8 , 9 ]. Por lo tanto, un método no invasivo que pueda distinguir con precisión los tumores ováricos benignos de los malignos para evitar el retraso en el tratamiento en casos malignos y evitar que las pacientes con tumores benignos tengan que someterse a una cirugía innecesaria tiene un impacto clínico significativo. Se ha demostrado que la inteligencia artificial (IA) mejora el rendimiento de la detección de tumores, la clasificación de tumores y el seguimiento del tratamiento en las imágenes del cáncer [ 10 , 11 , 12 , 13 ]. A diferencia de la evaluación subjetiva de imágenes radiológicas por parte de humanos, la extracción de características de la imagen mediante radiómica o aprendizaje profundo (DL) puede proporcionar información de imagen cuantificada indetectable para los ojos humanos y ha mostrado resultados prometedores en el análisis de tumores [ 14 , 15 , 16 , 17 , 18 , 19 , 20 , 21 , 22 , 23 , 24 , 25 ]. Varios estudios recientes utilizaron radiómica en imágenes de TC y aplicaron clasificadores de aprendizaje automático (ML) para diferenciar tumores de ovario [ 26 , 27 , 28 ]. Sin embargo, existe una investigación limitada sobre la aplicación de DL para diferenciar tumores de ovario mediante imágenes de TC. Christiansen et al. [ 29 ] y Wang et al. [ 30 ] aplicaron DL para la diferenciación de tumores ováricos utilizando ultrasonido e imágenes por resonancia magnética (IRM) respectivamente. Además de los estudios que aplicaron directamente redes DL para la diferenciación de tumores ováricos, hubo pocos estudios que usaron redes DL para la extracción de características de imágenes de TC para predecir la recurrencia del cáncer de ovario o clasificar subtipos de nódulos pulmonares [ 24 , 25 ]. Hasta donde sabemos, el rendimiento de la aplicación de ML basado en radiómica combinada y características DL extraídas de imágenes de TC para diferenciar tumores ováricos sigue siendo desconocido. En este estudio, nos propusimos desarrollar un modelo de IA basado en TC con extracción de características mediante radiómica y DL para distinguir tumores ováricos benignos de malignos. Aplicamos clasificadores con radiómica y características DL extraídas de imágenes de TC para clasificar tumores ováricos benignos y malignos. Se comparó el desempeño de varias combinaciones de clasificadores y conjuntos de características con radiólogos en la tarea de clasificación utilizando el diagnóstico patológico como estándar de oro. Además, también se evaluó la mejora del desempeño de los radiólogos con la ayuda del modelo óptimo. Métodos Población de estudio En este estudio aprobado por la junta de revisión institucional, recopilamos retrospectivamente 245 pacientes consecutivas con sospecha de tumores ováricos del Hospital MacKay

Aprendizaje automático combinado con radiómica y características de aprendizaje profundo extraídas de imágenes de TC: un nuevo modelo de IA para distinguir tumores ováricos benignos de malignos Leer más »

Los líderes tecnológicos de EE. UU. recurren al software de inteligencia artificial de NVIDIA para transformar las industrias del mundo

NVIDIA AI Summit :  NVIDIA anunció hoy que se está asociando con líderes tecnológicos de EE. UU. para ayudar a las organizaciones a crear aplicaciones de inteligencia artificial personalizadas y transformar las industrias del mundo utilizando los últimos NVIDIA NIM™ Agent Blueprints y los microservicios NVIDIA NeMo ™ y NVIDIA NIM . En todas las industrias, organizaciones como AT&T, Lowe’s y la Universidad de Florida están utilizando los microservicios para crear sus propios volantes de inercia de IA basados ​​en datos para impulsar aplicaciones de IA generativas personalizadas. Los líderes estadounidenses en consultoría tecnológica Accenture, Deloitte, Quantiphi y SoftServe están adoptando NVIDIA NIM Agent Blueprints y los microservicios NVIDIA NeMo y NIM para ayudar a los clientes de los sectores de la atención médica, la fabricación, las telecomunicaciones, los servicios financieros y el comercio minorista a crear agentes y copilotos de IA generativa personalizados. Los líderes de plataformas de datos e IA Cadence , Cloudera , DataStax, Google Cloud , NetApp, SAP, ServiceNow  y Teradata están avanzando en sus plataformas de datos e IA con NVIDIA NIM. “La IA está impulsando la transformación y dando forma al futuro de las industrias globales”, afirmó Jensen Huang, fundador y director ejecutivo de NVIDIA. “En colaboración con empresas, universidades y agencias gubernamentales de EE. UU., NVIDIA ayudará a promover la adopción de la IA para impulsar la productividad e impulsar el crecimiento económico”. Microservicios NVIDIA NeMo para IA generativa personalizada con precisiónLos microservicios NVIDIA NeMo admiten flujos de trabajo de personalización de modelos de extremo a extremo y el desarrollo de agentes de IA para ayudar a las empresas a llevar aplicaciones de IA generativa personalizadas al mercado más rápido, lo que reduce los costos de desarrollo. Los nuevos microservicios de NeMo (NeMo Customizer, NeMo Evaluator y NeMo Guardrails) se pueden combinar con microservicios de NIM para ayudar a los desarrolladores a seleccionar fácilmente datos a escala, personalizar y evaluar modelos y gestionar respuestas para alinearlas con los objetivos comerciales. Los desarrolladores pueden implementar sin inconvenientes un microservicio de NIM personalizado en cualquier nube, centro de datos o estación de trabajo acelerados por GPU. Ya está disponible el nuevo plan de NVIDIA NIM Agent para seguridad de softwarePara brindarles a los desarrolladores un punto de partida, NVIDIA ofrece  planes de NIM Agent : flujos de trabajo de referencia que brindan una guía para desarrollar aplicaciones creadas con NVIDIA NeMo y microservicios NIM. Los modelos de agentes NIM ayudan a acelerar las implementaciones de IA para casos de uso empresariales clave, como el descubrimiento de fármacos, el servicio al cliente y la extracción de datos. Hoy está disponible un nuevo modelo para la seguridad de los contenedores de software . Los desarrolladores pueden experimentar con los microservicios NeMo y NIM, así como con NVIDIA NIM Agent Blueprints, sin costo alguno. Las empresas pueden implementar aplicaciones en producción con seguridad, soporte y estabilidad de nivel empresarial a través de la  plataforma de software NVIDIA AI Enterprise . Los microservicios de NVIDIA crean agentes de IA personalizados para cada industriaLos líderes de todas las industrias están utilizando NVIDIA AI para mejorar las telecomunicaciones, la educación y la seguridad. Gigantes globales de consultoría aceleran la adopción de IA con NeMoEl proveedor de servicios global de NVIDIA y los socios de prestación de servicios están ayudando a empresas de todas las industrias a utilizar NVIDIA NeMo y los microservicios NIM y NIM Agent Blueprints para crear aplicaciones de IA personalizadas que aprovechen los datos comerciales. Las plataformas de datos e inteligencia artificial mejoran la comprensión con los microservicios NeMo y NIMLos socios del ecosistema de inteligencia artificial de NVIDIA, Cadence, Cloudera, DataStax, Google Cloud, NetApp, SAP, ServiceNow y Teradata, están utilizando microservicios NeMo y NIM para crear aplicaciones de inteligencia artificial generativa personalizadas con inferencia optimizada. DisponibilidadLos desarrolladores pueden acceder al software de inteligencia artificial de NVIDIA, incluidos los microservicios NIM, a través del catálogo de API de NVIDIA , así como experimentar con los microservicios de forma gratuita utilizando una licencia de desarrollador de NVIDIA . NVIDIA

Los líderes tecnológicos de EE. UU. recurren al software de inteligencia artificial de NVIDIA para transformar las industrias del mundo Leer más »

En 2028, el consumo eléctrico de los centros de datos alcanzará los 857 TWh

IDC explica que la electricidad representa el 46% del gasto de los centros de datos empresariales y el 60% de los proveedores de servicios. La demanda de los centros de datos en los próximos años irá acompañada de aumentos en los costos operativos a medida que las instalaciones asuman mayores cargas de trabajo, incluida la IA, y los precios de la electricidad aumenten. La consultora IDC se ha pronunciado al respecto, analizando el posible impacto en la capacidad, el consumo energético y las emisiones de CO2 de estos centros. En comparación con la tecnología de inteligencia artificial, se espera que la capacidad experimente una tasa de crecimiento anual compuesta del 40,5% de aquí a 2027, lo que refleja un aumento del 44,7% en el consumo de energía, con una cifra proyectada de 146,2 teravatios hora (TWh). El principal gasto corriente de los operadores de centros de datos sigue siendo la electricidad, que representa el 46% del gasto en centros de datos corporativos, mientras que en el caso de los proveedores de servicios el porcentaje se eleva al 60%. IDC cree que el consumo total de electricidad para estas ubicaciones físicas se duplicará entre 2023 y 2027, a 857 TWh. «Hay muchas opciones para aumentar la eficiencia de los centros de datos, que van desde soluciones tecnológicas como la mejora de la eficiencia de los chips y la refrigeración líquida, hasta el rediseño de los centros de datos y los métodos de distribución de energía», comenta Sean Graham, director de búsqueda de IDC. “Sin embargo, ofrecer soluciones energéticamente eficientes es sólo una parte de la ecuación para satisfacer las necesidades de los clientes”, explica. “Los proveedores de centros de datos, incluidos los servicios y operaciones en la nube, deben seguir dando prioridad a las inversiones en fuentes de energía renovables. Al invertir en ellos, ayudarán a aumentar el suministro general y, al mismo tiempo, ayudarán a sus clientes a alcanzar sus objetivos de sostenibilidad”, afirma Graham. NetMedia. Internacional. Italia. E.S. Traducido al español.

En 2028, el consumo eléctrico de los centros de datos alcanzará los 857 TWh Leer más »

Viena cambió a Microsoft 365

La administración de la ciudad continúa su transformación digital. A partir de mediados de octubre, el servicio web sustituirá a las anteriores soluciones de Office. Además de una revisión en profundidad de M365, la decisión fue precedida por un análisis de las opciones de acción que existen en el contexto de la actual «Estrategia de Ciudad Climática Inteligente» de Viena y la «agenda digital» de la ciudad. Como parte de una fase piloto, a finales de este año se dará a grupos de usuarios seleccionados la oportunidad de probar las funciones de la solución web. En un comunicado de prensa conjunto, la ciudad y su proveedor de servicios Microsoft enfatizan que M365 ofrece una gama completa de servicios para simplificar la colaboración, la comunicación y la productividad en el espacio digital. La introducción no sólo debería aumentar la eficiencia de la administración de la ciudad, sino también establecer nuevos estándares para los servicios digitales. «Estamos orgullosos de posicionar a Viena como pionera en la transformación digital», afirmó el CIO de la ciudad, Klemens Himpele. «La introducción de M365 es un paso importante en la implementación de nuestra Agenda Digital; con ella queremos preparar nuestra administración municipal para el futuro y proporcionar a los empleados el mejor entorno digital posible para que puedan concentrarse en las preocupaciones de nuestros ciudadanos, personales y digitalmente». Integración KILa fase piloto se extenderá hasta 2025, seguida de una evaluación y posible expansión del uso de Microsoft 365 a otras áreas de la administración de la ciudad. Esto requiere negociaciones exitosas sobre protección de datos con Microsoft. «Como administración pública, esperamos de Microsoft una protección especial de nuestros datos, en particular la aplicación coherente de los límites de datos de la UE de Microsoft», afirmó Himpele.Otro componente importante de la modernización de la administración municipal es la «AI Compass» de la ciudad de Viena, que sirve como guía para el uso responsable de la inteligencia artificial. La guía tiene como objetivo garantizar que los empleados de la ciudad de Viena utilicen todas las aplicaciones de IA de forma transparente, justa y ética. NetMedia. Internacional. Austria. Ed. M/G. Traducido al español.

Viena cambió a Microsoft 365 Leer más »

Un paciente con ELA «habla» por primera vez en años con un innovador implante cerebral

Científicos de la Universidad de California en Davis han ayudado a un hombre a volver a hablar utilizando un chip cerebral que puede interpretar sus señales cerebrales para leerlas en voz alta utilizando inteligencia artificial para imitar la voz real del hombre. En 2023, a Casey Harrell le diagnosticaron esclerosis lateral amiotrófica (ELA), un trastorno neurodegenerativo. La enfermedad le quitó lentamente la capacidad de caminar y de sostener a su hija pequeña, se extendió a su boca y le privó de la capacidad de hablar de una manera que no fuera muy arrastrada y totalmente incoherente. En julio del año pasado, le implantaron quirúrgicamente electrodos en el cerebro para intentar comprender lo que intentaba comunicar cuando hablaba. La conexión entre humanos mediante lo que se denomina una interfaz cerebro-computadora (BCI, por sus siglas en inglés) es quizás más conocida a través de Neuralink Corp. de Elon Musk, que también ha logrado avances considerables en los últimos tiempos. En 2023, un hombre paralítico volvió a caminar en Europa , un salto hacia el futuro para los neurocientíficos de la Universidad de Maastricht en los Países Bajos. Los implantes en el cerebro de Harrell están ubicados en la circunvolución precentral izquierda, la zona responsable del habla. Al interpretar los mensajes enviados por las neuronas, la actividad puede ser traducida y luego leída en voz alta por el asistente de voz de IA que ha aprendido a generar el sonido de su voz. De alguna manera, está hablando de nuevo, comunicándose con su hija de cuatro años, algo que nunca pensó que volvería a hacer. Según los informes , Harrell rompió a llorar la primera vez que la máquina lo ayudó a hablar; sus palabras eran claras como el día. El segundo día, hablaba con frases más largas. “Dulce hija mía”, dijo al ver a su hija, “he estado esperando esto durante mucho tiempo”. Explicó que sentía que ahora podía ayudar con su educación, capaz de tener una “ relación más profunda ” con ella después de unos años “frustrantes y desmoralizantes” de falta de comunicación. “Esta tecnología es transformadora porque brinda esperanza a las personas que quieren hablar pero no pueden”, dijo el neurocirujano de UC Davis David Brandman. “Espero que una tecnología como esta BCI del habla ayude a futuros pacientes a hablar con sus familiares y amigos”. SiliconAngle. J.F. Traducido al español

Un paciente con ELA «habla» por primera vez en años con un innovador implante cerebral Leer más »

La startup de inteligencia artificial para el cuidado de la salud Abridge habría recaudado 250 millones de dólares con una valoración de 2500 millones de dólares

Abridge AI Inc., una startup que desarrolla software de inteligencia artificial para profesionales médicos, estaría recaudando 250 millones de dólares en nueva financiación. The Information del jueves citó a fuentes que afirmaban que el inversor tecnológico Elad Gil e IVP están dispuestos a liderar la inversión. Se espera que el fondo CapitalG de Alphabet Inc. también participe. Según se informa, la ronda se cerrará con una valoración previa al dinero de 2.500 millones de dólares, un salto significativo respecto de los 200 millones de dólares estimados que valía Abridge el año pasado. Los médicos pasan una parte importante de su jornada laboral redactando notas médicas. Además, tienen que cargar manualmente cada nota en el sistema EHR de su hospital, un tipo de aplicación que se utiliza para gestionar los registros médicos electrónicos. Abridge, con sede en Pittsburgh, ofrece una plataforma de inteligencia artificial que promete automatizar la mayor parte de la tarea.  La plataforma de la empresa es accesible a través de una aplicación móvil que los médicos activan antes de cada cita médica. El software graba la conversación, la transcribe y luego utiliza la transcripción para generar automáticamente notas médicas. Esto no automatiza por completo el proceso de toma de notas. Después de crear un borrador, los médicos deben comprobar su precisión y realizar las modificaciones necesarias. Una función llamada Linked Evidence vincula cada frase generada por IA en una nota médica con el extracto de la transcripción a partir del cual se generó, lo que facilita la detección de errores. La plataforma está integrada en Epic, la aplicación más utilizada para gestionar registros médicos electrónicos. Los médicos pueden editar las notas médicas generadas por IA en el cliente móvil de Epic sin tener que hacer malabarismos con varias pestañas, lo que acelera el flujo de trabajo. Abridge promete automatizar hasta el 91% del trabajo que implica la creación de notas médicas. Según la empresa, eso se traduce en un ahorro de 70 horas de tiempo por médico al mes. El resultado es que los profesionales médicos pueden dedicar una mayor parte de sus días laborales a brindar atención al paciente, así como a crear notas más detalladas de las que de otra manera no tendrían tiempo para hacer. La plataforma Abridge funciona con modelos de IA desarrollados internamente. La empresa afirma que sus algoritmos comprenden más de 14 idiomas y términos clínicos de más de 50 especialidades médicas. Además, afirma que su tecnología  supera significativamente a otros modelos de IA optimizados para tareas de atención médica.   El informe de esta semana sobre la búsqueda de nueva financiación por parte de Abridge llega unos ocho meses después de que la empresa cerrara su última ronda de financiación de 150 millones de dólares. En aquel momento, la empresa afirmó que una parte del capital se destinaría al desarrollo de nuevos modelos de inteligencia artificial. La empresa tenía previsto utilizar esos modelos tanto para mejorar su plataforma de notas médicas existente como para impulsar nuevos productos aún no anunciados.  Una inversión adicional de 250 millones de dólares facilitaría a Abridge asumir los importantes costes asociados a la creación de modelos de IA personalizados. La inversión también pondría a la empresa en una mejor posición para hacer frente a la creciente competencia que enfrenta por parte de otras empresas emergentes de IA. Suki AI Inc., que ofrece una herramienta rival para generar notas médicas, recaudó 70 millones de dólares en financiación a principios de esta semana. SiliconAngle. M. D. Traducido al español

La startup de inteligencia artificial para el cuidado de la salud Abridge habría recaudado 250 millones de dólares con una valoración de 2500 millones de dólares Leer más »

AMD presenta un nuevo y potente chip de inteligencia artificial para desafiar a Nvidia

Lisa Su, directora ejecutiva de AMD, sobre el MI325X: «Este es el comienzo, no el final de la carrera de la IA». El jueves, AMD anunció su nuevo chip acelerador de IA MI325X , que se lanzará a los clientes de los centros de datos en el cuarto trimestre de este año. En un evento celebrado en San Francisco, la empresa afirmó que el nuevo chip ofrece un rendimiento «líder en la industria» en comparación con las GPU H200 actuales de Nvidia , que se utilizan ampliamente en los centros de datos para impulsar aplicaciones de IA como ChatGPT. Con su nuevo chip, AMD espera reducir la brecha de rendimiento con Nvidia en el mercado de procesadores de IA. La compañía con sede en Santa Clara también reveló planes para su chip MI350 de próxima generación , que se posiciona como un competidor directo del nuevo sistema Blackwell de Nvidia , con una fecha de envío prevista para la segunda mitad de 2025. En una entrevista con el Financial Times, la directora ejecutiva de AMD, Lisa Su, expresó su ambición de que AMD se convierta en el líder de inteligencia artificial «de principio a fin» durante la próxima década. «Este es el comienzo, no el final de la carrera de la inteligencia artificial», dijo a la publicación. Según el sitio web de AMD, el acelerador MI325X anunciado contiene 153 mil millones de transistores y está construido sobre la arquitectura de GPU CDNA3 utilizando los procesos de litografía FinFET de 5 nm y 6 nm de TSMC . El chip incluye 19.456 procesadores de flujo y 1.216 núcleos de matriz distribuidos en 304 unidades de cómputo. Con una frecuencia de reloj máxima de 2100 MHz, el MI325X ofrece hasta 2,61 PFLOP de rendimiento máximo de precisión de ocho bits (FP8). Para operaciones de precisión media (FP16), alcanza 1,3 PFLOP. Una fracción de la cuota de mercado de IA de Nvidia El anuncio del nuevo chip se produce en un momento en el que los clientes de Nvidia se preparan para implementar sus chips Blackwell en el trimestre actual. Microsoft ya se ha convertido en el primer proveedor de servicios en la nube en ofrecer los últimos chips GB200 de Nvidia, que combinan dos chips Blackwell B200 y una CPU «Grace» para obtener un mayor rendimiento. Según el Financial Times, si bien AMD se ha convertido en el competidor más cercano de Nvidia en chips de IA listos para usar, aún se queda atrás en participación de mercado. AMD proyecta ventas de chips de IA por 4.500 millones de dólares para 2024, una fracción de los 26.300 millones de dólares que Nvidia vendió en chips de IA para centros de datos durante el trimestre que finalizó en julio. Aun así, AMD ya ha conseguido que Microsoft y Meta sean clientes para su generación actual de GPU de IA MI300, y es posible que Amazon siga su ejemplo. El reciente enfoque de la compañía en la IA marca un cambio con respecto a su negocio tradicional orientado a PC que incluye tarjetas gráficas de consumo, pero Su sigue siendo optimista sobre la demanda futura de GPU para centros de datos con IA. AMD predice que el mercado potencial total para chips de IA alcanzará los 400 mil millones de dólares para 2027. Google News. B.E. Traducido al español

AMD presenta un nuevo y potente chip de inteligencia artificial para desafiar a Nvidia Leer más »

Nuevo estudio del IBV: la IA impulsa la innovación en mainframes

Para entender mejor cómo los líderes de TI están aprovechando los mainframes hoy y visualizando su futuro en la era de la IA y la nube híbrida, el IBM Institute for Business Value (IBV), en colaboración con Oxford Economics, realizó una encuesta a 2.551 ejecutivos de TI globales . Los resultados muestran que el mainframe ya está desempeñando un papel fundamental en el apoyo a la innovación en IA, las estrategias de nube híbrida y la aceleración de la transformación digital. Con capacidades de seguridad y procesamiento inigualables, el mainframe impulsa el 70% de las transacciones globales, en términos de valor. Los mainframes han demostrado su vitalidad gracias a su capacidad de procesar grandes cantidades de datos de forma rápida, confiable y segura, y serán clave para liberar todo el potencial de la innovación basada en datos. Cómo afecta la IA a los mainframes El estudio muestra que el 78% de los ejecutivos de TI encuestados dijeron que sus organizaciones están poniendo en marcha proyectos piloto o poniendo en marcha iniciativas que incorporan capacidades de IA en aplicaciones y transacciones de mainframe. El estudio descubrió que las organizaciones ven el mainframe como una plataforma invaluable para implementar IA empresarial para una amplia gama de funciones, que incluyen impulsar la innovación, reforzar la ciberseguridad, optimizar las operaciones y modernizar las aplicaciones. Por ejemplo: Los mainframes como parte de la nube híbrida Los mainframes también desempeñan un papel fundamental en las estrategias de nube híbrida exitosas, ya que permiten a las organizaciones implementar cargas de trabajo de aplicaciones en los entornos informáticos más adecuados. Las cargas de trabajo críticas, como las transacciones financieras, los registros sanitarios y los servicios gubernamentales, exigen seguridad, fiabilidad y escalabilidad avanzadas. Al utilizar el mainframe para estas cargas de trabajo, las organizaciones pueden aprovechar su arquitectura optimizada para lograr un rendimiento y una eficiencia incomparables, lo que minimiza los costes y los riesgos en todo su ecosistema de TI. Se ha demostrado que este enfoque ofrece importantes retornos de la inversión, y las empresas que adoptan un diseño híbrido obtienen más del triple de retornos de sus esfuerzos de transformación digital. Sin embargo, para aprovechar plenamente estos beneficios, las organizaciones deben mantener los sistemas mainframe para garantizar su vigencia, modernizar las aplicaciones mainframe e integrarlas con datos distribuidos, aplicaciones, nubes y prácticas de desarrollo modernas. Descubra todo el potencial de la nube híbrida y la IA A medida que las organizaciones avanzan en sus viajes de transformación digital, deben aprovechar sus inversiones existentes en mainframes para liberar todo el potencial de sus datos con tecnologías híbridas de nube e IA. Los líderes de TI que buscan revitalizar sus estrategias de mainframe deberían considerar algunas acciones críticas ahora: Sea intencional respecto a su base de TI. Para establecer una base sólida de TI, las organizaciones deben comprometerse con una estrategia híbrida por diseño, modernizar las aplicaciones mainframe y desarrollar una estrategia clara de integración y uso compartido de datos. Esto implica optimizar el valor comercial en todo el parque tecnológico, crear una estrategia de modernización de aplicaciones alineada con los objetivos comerciales y priorizar la integración entre mainframe y otras tecnologías para un intercambio de datos sin inconvenientes y conectividad API. Al hacerlo, las organizaciones pueden mejorar la competitividad general, reducir los costos y mejorar su capacidad para responder a los cambiantes requisitos comerciales. Apóyese en la innovación de la IA. Las organizaciones deben aprovechar la IA para potenciar a los equipos de DevOps, mejorar las operaciones de mainframe e incorporar la IA en las transacciones comerciales. Esto se puede lograr equipando a los desarrolladores con herramientas asistidas por IA de última generación que aceleren el descubrimiento, el análisis y la modernización de las aplicaciones; mejorando las funciones operativas con ayudas inteligentes y asistentes de chatbot de última generación; y aprovechando la IA para obtener información durante las transacciones a fin de mejorar los casos de uso comerciales. Al adoptar la innovación de la IA, las organizaciones pueden optimizar la modernización, mejorar la eficiencia operativa e impulsar el éxito comercial en un mundo híbrido impulsado por la IA y la nube. Invierta en capacidades y conjuntos de habilidades de mainframe avanzados. Las organizaciones deben aprovechar las capacidades actuales de los mainframes, cultivar una fuerza laboral diversa y capacitada, y capacitar a los profesionales de mainframes con herramientas de IA e iniciativas colaborativas. Esto implica aprovechar las nuevas capacidades de mainframe, como el cifrado y la autenticación avanzados, y chips de procesador avanzados y aceleradores de IA especializados; abordar las brechas de habilidades a través de iniciativas de capacitación específicas y programas de tutoría; y empoderar a los profesionales de mainframe con herramientas de IA, asistentes e iniciativas colaborativas como el Mainframe Skills Council . Acelere su transformación digital A medida que avanza la era de la nube híbrida y la IA, la capacidad de resistencia del mainframe es más evidente que nunca. Su papel como activo estratégico para ayudar a garantizar la seguridad, la privacidad de los datos y la eficiencia operativa lo hace indispensable para las organizaciones que se esfuerzan por seguir siendo competitivas. Al adoptar estrategias de modernización que aprovechen las fortalezas del mainframe, las organizaciones pueden acelerar sus procesos de transformación digital y descubrir nuevas oportunidades de crecimiento e innovación. IBM News

Nuevo estudio del IBV: la IA impulsa la innovación en mainframes Leer más »

Scroll al inicio