El Portal de las Tecnologías para la Innovación

Categoría: Notas y Entrevistas

El VC Martin Casado explica por qué tantas regulaciones de IA son tan erróneas

El problema con la mayoría de los intentos de regular la IA hasta el momento es que los legisladores se están centrando en una mítica experiencia futura de IA, en lugar de comprender verdaderamente los nuevos riesgos que la IA realmente introduce. Así lo afirmó el socio general de Andreessen Horowitz, el VC Martin Casado, ante un público repleto en TechCrunch Disrupt 2024 la semana pasada. Casado, que dirige la práctica de infraestructura de 1.250 millones de dólares de a16z, ha invertido en empresas emergentes de inteligencia artificial como World Labs, Cursor, Ideogram y Braintrust. “Las tecnologías transformadoras y la regulación han sido un tema recurrente durante décadas, ¿no es cierto? Lo que ocurre con todo el discurso sobre la IA es que parece haber surgido de la nada”, dijo a la multitud. “Están tratando de crear regulaciones completamente nuevas sin sacar lecciones de esas lecciones”.  Por ejemplo, dijo: «¿Han visto realmente las definiciones de IA en estas políticas? Es decir, ni siquiera podemos definirla».  Casado se encontraba entre un mar de voces de Silicon Valley que se regocijaron cuando el gobernador de California, Gavin Newsom, vetó la ley de gobernanza de la IA que se había propuesto en el estado, la SB 1047. La ley pretendía poner un llamado interruptor de apagado en los modelos de IA de gran tamaño, es decir, algo que los apagara. Quienes se opusieron al proyecto de ley dijeron que estaba tan mal redactado que, en lugar de salvarnos de un futuro monstruo imaginario de la IA, simplemente habría confundido y obstaculizado la escena de desarrollo de la IA en California. “Con frecuencia escucho a fundadores que se resisten a mudarse aquí debido a lo que esto indica sobre la actitud de California hacia la IA: que preferimos una mala legislación basada en preocupaciones de ciencia ficción en lugar de riesgos tangibles”, publicó en X un par de semanas antes de que el proyecto de ley fuera vetado. Aunque esta ley estatal en particular ya no existe, el hecho de que existiera todavía preocupa a Casado. Le preocupa que se puedan materializar más proyectos de ley, redactados de la misma manera, si los políticos deciden complacer los temores de la población general a la IA, en lugar de regular lo que la tecnología realmente está haciendo.  Entiende la tecnología de IA mejor que la mayoría. Antes de unirse a la histórica firma de capital de riesgo, Casado fundó otras dos empresas, incluida una empresa de infraestructura de redes, Nicira, que vendió a VMware por 1.260 millones de dólares hace poco más de una década. Antes de eso, Casado fue experto en seguridad informática en el Laboratorio Nacional Lawrence Livermore . Dice que muchas de las regulaciones propuestas sobre IA no surgieron ni fueron apoyadas por muchos de los que entienden mejor la tecnología de IA, incluidos académicos y el sector comercial que desarrolla productos de IA. “Hay que tener una noción de riesgo marginal diferente. Por ejemplo, ¿en qué se diferencia la IA actual de alguien que usa Google? ¿En qué se diferencia la IA actual de alguien que simplemente usa Internet? Si tenemos un modelo que muestre en qué se diferencia, se tiene una noción de riesgo marginal y luego se pueden aplicar políticas que aborden ese riesgo marginal”, dijo. «Creo que es demasiado pronto para empezar a aferrarnos a un montón de regulaciones y entender realmente qué vamos a regular», sostiene. El contraargumento —y que varias personas del público mencionaron— fue que el mundo no veía realmente los tipos de daños que Internet o las redes sociales podían causar antes de que estos daños estuvieran sobre nosotros. Cuando se lanzaron Google y Facebook, nadie sabía que dominarían la publicidad en línea o que recopilarían tantos datos sobre las personas. Nadie entendía cosas como el acoso cibernético o las cámaras de eco cuando las redes sociales eran jóvenes. Los defensores de la regulación de la IA a menudo señalan estas circunstancias pasadas y dicen que esas tecnologías deberían haber sido reguladas desde el principio.  ¿La respuesta de Casado? “Hoy en día existe un sólido régimen regulatorio que se ha desarrollado a lo largo de 30 años”, y está bien equipado para construir nuevas políticas para la IA y otras tecnologías. Es cierto que, solo a nivel federal, los organismos reguladores incluyen todo, desde la Comisión Federal de Comunicaciones hasta el Comité de Ciencia, Espacio y Tecnología de la Cámara de Representantes. Cuando TechCrunch le preguntó a Casado el miércoles después de las elecciones si mantiene esta opinión (que la regulación de la IA debería seguir el camino ya trazado por los organismos reguladores existentes), dijo que sí. Pero también cree que no se debería atacar a la IA por los problemas que presentan otras tecnologías, sino que se debería atacar a las tecnologías que causaron los problemas. “Si nos equivocamos en las redes sociales, no podemos solucionarlo con la IA”, dijo. “Los que regulan la IA dicen: ‘Oh, nos equivocamos en las redes sociales, por lo tanto, lo haremos bien en la IA’, lo cual es una declaración sin sentido. Vamos a solucionarlo en las redes sociales”. TechCrunch. J. B. Traducido al español

Leer más »

Charlando sobre chatbots: cómo las herramientas de IA pueden ayudar a los docentes

En este episodio de In Stanford, la profesora asistente de GSE, Dora Demszky, analiza cómo se pueden usar los chatbots para brindar retroalimentación a los docentes. Si bien se ha dicho mucho sobre los posibles efectos positivos y negativos de la inteligencia artificial (IA) generativa en la educación en relación con los estudiantes, se ha dicho menos sobre cómo se pueden utilizar las herramientas de IA para apoyar a los docentes. Dora Demszky, profesora adjunta de la Escuela de Educación de la Universidad de Stanford (GSE), cuya investigación combina el aprendizaje automático, el procesamiento del lenguaje natural, la lingüística y los aportes de los educadores, está trabajando actualmente en un proyecto llamado M-Powering Teachers.(link externo)que proporciona retroalimentación a los profesores en el aula. “Realmente se basa en la idea de que queremos empoderar a los docentes”, dijo Demszky, quien enseñó ciencia de datos educativos en la GSE. “No estamos tratando de decirles qué hacer. Solo les brindamos oportunidades para que reflexionen sobre lo que hicieron”. La herramienta M-Power (la m significa máquina) utiliza el procesamiento del lenguaje natural para analizar las interacciones verbales en el aula y proporciona retroalimentación formativa a los docentes. “Gran parte de la retroalimentación consiste simplemente en brindarles cosas que hicieron, destacar cosas y momentos de su lección para que reflexionen y hacerles buenas preguntas de reflexión y de establecimiento de objetivos para que haya menos posibilidades de riesgos o errores”, dijo. Demzsky se une a los anfitriones Dan Schwartz, decano de GSE, y Denise Pope, profesora titular en School’s In, para hablar sobre la inteligencia artificial como herramienta de retroalimentación positiva y apoyo para los educadores. Su investigación se centra en el desarrollo de métodos de procesamiento del lenguaje natural para respaldar una instrucción equitativa y centrada en el estudiante. En el episodio, explica cómo su equipo está tratando de identificar prácticas como cultivar una mentalidad de crecimiento, usar un lenguaje de apoyo y desarrollar las ideas de los estudiantes como puntos focales para la retroalimentación de los docentes y el aprendizaje profesional.  “Sabemos por la literatura, por décadas de literatura, que cuando los estudiantes se sienten escuchados, cuando sienten que sus ideas importan y que sus maestros las desarrollan en lugar de simplemente encauzarlos hacia una respuesta muy específica, eso realmente facilita el aprendizaje”, dice Demszky. “Por eso, identificamos prácticas relacionadas con eso, como desarrollar ideas, hablar para apoyar la mentalidad, hacer preguntas que sondeen el pensamiento de los estudiantes y luego construimos algoritmos”. Stanford

Leer más »

Microsoft nombra a Jay Parikh como miembro del equipo de liderazgo sénior

Satya Nadella, presidente y director ejecutivo, compartió la siguiente comunicación con los empleados de Microsoft esta mañana. Cuando miro hacia la próxima fase de Microsoft, tanto en términos de nuestra escala como de nuestra enorme oportunidad por delante, está claro que necesitamos seguir sumando talento excepcional en todos los niveles de la organización para aumentar nuestra profundidad y capacidad en nuestras prioridades comerciales, que abarcan seguridad, calidad e innovación en inteligencia artificial. En ese contexto, me complace anunciar que Jay Parikh se unirá a Microsoft como miembro del equipo de liderazgo sénior (SLT) y reportará directamente a mí. Jay fue el jefe global de ingeniería en Facebook (ahora Meta) y, más recientemente, fue el director ejecutivo de Lacework. Tiene una trayectoria impresionante, con una combinación única de experiencias en la creación y el escalamiento de equipos técnicos que atienden tanto a clientes comerciales como a consumidores. Sus profundas conexiones en los ecosistemas de empresas emergentes y de capital de riesgo, junto con sus funciones de liderazgo en Akamai y Ning, aportarán una perspectiva valiosa a Microsoft. A lo largo de los años que he conocido a Jay, lo he admirado como líder tecnológico e ingeniero respetado con un profundo compromiso con el impulso de la innovación y la búsqueda de la excelencia operativa. Su enfoque se extiende más allá de la tecnología, con su pasión y dedicación al desarrollo de las personas, el fomento de una cultura sólida y la creación de talentos de primera clase, todo ello al servicio de ofrecer valor más rápido a los clientes e impulsar el crecimiento empresarial. De hecho, hay muy pocos líderes en nuestra industria con la experiencia de Jay en la dirección de equipos a través del rápido crecimiento y la escala necesarios para respaldar a las empresas de Internet más grandes de la actualidad. A medida que se incorpore, Jay se sumergirá en el aprendizaje sobre las prioridades y la cultura de nuestra empresa y pasará tiempo conectándose con nuestros líderes sénior y reuniéndose con clientes, socios y empleados de todo el mundo. Compartiremos más sobre su función y su enfoque en los próximos meses. Únase a mí para darle la bienvenida a Jay a Microsoft. Satya. Microsoft Blog. Traducido al español

Leer más »

Cómo el transporte por carretera avanza hacia el cero neto

Responsable del 8% de las emisiones de carbono del mundo, ¿puede el transporte por carretera mejorar su situación? Representan hasta el 8% de las emisiones totales de carbono del mundo. Pero, a pesar de todos los esfuerzos, las emisiones globales del transporte por carretera están aumentando junto con nuestro mayor consumo, porque prácticamente todo lo que compramos llega en un camión, incluso si el viaje por carretera es solo una parte de su recorrido total. En el camino hacia el cero neto, la descarbonización del transporte de mercancías por carretera es un objetivo especialmente difícil de alcanzar. Pero ahí es donde entra en juego un equipo dirigido por un profesor de ingeniería de Cambridge. El profesor David Cebon (en la foto de arriba, a la derecha) dirige el Centro para el Transporte de Mercancías por Carretera Sostenible (SRF), un ecosistema de académicos, industria y responsables de políticas que se lanzó en 2012. El Centro investiga una amplia gama de cuestiones de ingeniería, logística y políticas, desde las fundamentales hasta las aplicadas, desde las de pequeña a gran escala y desde las tácticas hasta las estratégicas. “Estamos buscando soluciones sostenibles para descarbonizar el transporte de mercancías por carretera en beneficio del planeta, pero esas soluciones deben ser económicamente viables (o no funcionarán) y deben ser social y políticamente aceptables. Y, por supuesto, el tiempo es esencial”, afirma Cebon. La electrificación del transporte de mercancías por carretera es uno de los principales problemas que el Centro está abordando en varios frentes. Se trata de un problema complejo que requiere un enfoque multidisciplinario que tenga en cuenta factores de logística, ingeniería, políticas y energía en conjunto. Los vehículos urbanos ya están haciendo la transición a eléctricos, tanto que Cebon dice que dentro de los próximos 10 años “nos preguntaremos por qué diablos conducíamos camiones diésel en las ciudades”. Pero el transporte de mercancías de larga distancia es un desafío mucho más difícil, como explica Cebon: “Ya hay vehículos eléctricos disponibles para la mayoría de las aplicaciones, pero las baterías son pesadas y deben cargarse durante el día de logística para no agregar tiempo ni costos”, afirma. “Eso supone muchos desafíos y significa que los principales problemas que enfrenta la industria tienen que ver en realidad con el suministro de energía, la infraestructura de carga y la logística: no con los vehículos o la tecnología”. Actualmente, el Centro lidera el Joint Operators Logistics Trial (JOLT), un proyecto colaborativo diseñado para explorar cómo los operadores de transporte pueden avanzar de manera rápida y rentable hacia una norma de vehículos eléctricos para operaciones de transporte pesado de mercancías por carretera en el Reino Unido. El programa se basa en dos principios rectores: en primer lugar, al compartir datos con sus colaboradores, los socios maximizarán su aprendizaje; y en segundo lugar, al compartir activos de capital con sus colaboradores, los socios minimizarán sus costos. El objetivo es desarrollar los conocimientos y los modelos necesarios para reducir los riesgos de las operaciones de transporte de mercancías eléctricas y fundamentar las decisiones políticas y de inversión. Los operadores de flotas participantes están compartiendo sus experiencias de aprendizaje en un entorno precompetitivo para desarrollar una comprensión clara de cómo se pueden implementar los camiones eléctricos y la infraestructura de carga de manera más eficaz para satisfacer sus necesidades comerciales.  El proyecto ofrece acceso compartido a una flota de vehículos eléctricos, proporcionada por Volvo Trucks, Scania y DAF Trucks, y a cargadores móviles, proporcionados por el socio Evyve. Estos están siendo utilizados por socios logísticos, entre ellos John Lewis Partnership (uno de los minoristas más conocidos del Reino Unido), para probar una secuencia acordada previamente de pruebas de vehículos eléctricos en servicio. Se recopilan datos operativos de alta resolución durante cada período de prueba y se analizan, anonimizan y comparten con todos los socios como parte de un proceso de aprendizaje colectivo gestionado. La SRF también ha creado organizaciones de investigación asociadas con la misma estructura (ingeniería + logística + políticas; academia + industria + gobierno), que trabajan con las mejores universidades de la India, China, Sudamérica y Sudáfrica. Estos centros de investigación tienen la misma misión que la SRF. Los cinco grupos de investigación intercambian estudiantes y académicos y comparten herramientas y métodos, datos e ideas, además de llevar a cabo proyectos conjuntos y talleres internacionales. “Hemos desarrollado nuestro propio ecosistema internacional de amigos investigadores que pueden trabajar juntos en problemas y soluciones comunes: ayudar a descarbonizar el transporte de mercancías por carretera en todo el mundo”, afirma Cebon. Teniendo todo esto en mente, ¿qué tan factible es el objetivo de emisiones netas –o casi– cero del transporte de mercancías por carretera para 2050? Cebon es optimista. “La industria está haciendo un progreso real hacia la descarbonización”, afirma. “Con la tecnología de los vehículos eléctricos avanzando tan rápidamente, la industria tiene una plataforma básica que debería estar a la altura de la tarea de limpiar las emisiones. «Pero lo que hemos descubierto desde nuestro lanzamiento hace 12 años es que el transporte de mercancías por carretera solo se puede descarbonizar si se adopta una visión sistémica de la ingeniería, la logística, la energía y la infraestructura: modelando la forma en que interactúan, a medida que todos los sectores de la economía se descarbonizan simultáneamente. Esa capacidad está en nuestro ADN en el Centro para el Transporte de Mercancías por Carretera Sostenible, por lo que podemos hacer una contribución útil. “Tengo la esperanza de que la industria internacional del transporte por carretera alcance un nivel de emisiones cercano a cero para el año 2050”. Universidad de Cambridge. Traducido al español

Leer más »

Un modelo de IA puede predecir riesgos para la salud, incluida la muerte prematura, a partir de ECG

Un nuevo modelo de IA puede predecir el riesgo de los pacientes de desarrollar y empeorar la enfermedad, e incluso su riesgo de muerte prematura, utilizando un electrocardiograma (ECG). Los investigadores del Imperial College de Londres y del Imperial College Healthcare NHS Trust creen que su trabajo, publicado hoy en Lancet Digital Health, podría utilizarse en el NHS dentro de cinco años. Permitiría a los médicos detectar enfermedades antes y priorizar los casos más urgentes para su tratamiento. Un electrocardiograma (ECG) registra la actividad eléctrica del corazón y es una de las pruebas médicas más comunes en el mundo. El equipo utilizó conjuntos de datos muy grandes de fuentes internacionales, que consistían en millones de ECG tomados previamente como parte de la atención de rutina, para entrenar su modelo de IA para analizar un ECG y predecir con precisión qué pacientes experimentaron una nueva enfermedad, una enfermedad peor o quiénes murieron posteriormente. Los ECG representan el flujo de señales eléctricas dentro y entre las diferentes cámaras del corazón (las aurículas y los ventrículos). El modelo de IA fue entrenado para «leer» esa información y ver patrones en las señales eléctricas. Los investigadores dicen que el modelo puede ver y comprender patrones de ECG con más complejidad y sutileza que un cardiólogo. Detalle sutil El Dr. Arunashis Sau , profesor clínico académico del Instituto Nacional del Corazón y los Pulmones del Imperial College de Londres y jefe de cardiología del Imperial College Healthcare NHS Trust, dirigió la investigación. Explicó: “Los cardiólogos utilizamos nuestra experiencia y las pautas estándar cuando analizamos los ECG, clasificándolos en patrones “normales” y “anormales” para ayudarnos a diagnosticar enfermedades. Sin embargo, el modelo de IA detecta detalles mucho más sutiles, por lo que puede “detectar” problemas en ECG que a nosotros nos parecerían normales, y potencialmente mucho antes de que la enfermedad se desarrolle por completo”. El modelo de inteligencia artificial (AI-ECG risk estimation, AIRE) fue capaz de identificar correctamente el riesgo de muerte en los diez años posteriores al ECG (de alto a bajo) en el 78% de los casos. El resto de los casos en los que el modelo se equivocó, según los investigadores, podría haber estado influido por otros factores desconocidos (por ejemplo, el tratamiento posterior del paciente o una causa de muerte imprevista).  El sistema puede predecir futuros riesgos para la salud, como problemas de ritmo cardíaco, ataques cardíacos e insuficiencia cardíaca, así como cuándo una persona morirá por una causa no relacionada con el corazón. Los investigadores descubrieron que podía predecir estos riesgos con un alto nivel de precisión. El Dr. Sau explicó además: “Los ECG capturan una gran cantidad de información de todo el cuerpo porque enfermedades como la diabetes, que afectan a órganos como los riñones o el hígado, también afectarán al corazón de alguna manera. Nuestro análisis muestra que la IA puede decirnos mucho no solo sobre el corazón, sino también sobre lo que está sucediendo en otras partes del cuerpo y puede ser capaz de detectar el envejecimiento acelerado”. Se sabe que los ECG mejorados con IA son muy precisos para diagnosticar enfermedades cardíacas, pero hasta ahora no se han utilizado para informar a los médicos sobre el riesgo de un paciente individual de desarrollar una variedad de enfermedades específicas y tratables en el futuro. Los ECG mejorados con IA no forman parte actualmente de la atención o el diagnóstico de rutina en los hospitales.  Los investigadores también analizaron imágenes e información genética, lo que les ayudó a confirmar que las predicciones de la IA estaban vinculadas a factores biológicos reales en la estructura y función del corazón. Esto es algo que, según afirman, es crucial para la credibilidad del modelo ante los médicos, ya que demuestra que puede detectar cambios sutiles en la estructura del corazón a lo largo del tiempo, que son signos tempranos de riesgo de enfermedad o muerte. El autor principal de este estudio es el Dr. Fu Siong Ng , profesor de electrofisiología cardíaca en el Instituto Nacional del Corazón y los Pulmones del Imperial College de Londres y cardiólogo consultor en el Imperial College Healthcare NHS Trust y el Chelsea and Westminster Hospital NHS Foundation Trust. ‘Creíble y confiable’ “Nuestro trabajo ha demostrado que este modelo de IA es una herramienta creíble y fiable que, en el futuro, podría programarse para su uso en diferentes áreas del NHS con el fin de proporcionar a los médicos información relevante sobre los riesgos. Esto podría tener un impacto positivo en el tratamiento de los pacientes y, en última instancia, mejorar la longevidad y la calidad de vida de los pacientes. También podría reducir las listas de espera y permitir una asignación más eficiente de los recursos. Creemos que esto podría tener importantes beneficios para el NHS y a nivel mundial”, afirmó. Añadió: “El siguiente paso importante es comprobar si el uso de estos modelos puede realmente mejorar los resultados de los pacientes en estudios clínicos”. Ya se han planificado ensayos de AIRE en el NHS en hospitales del Imperial College Healthcare NHS Trust y del Chelsea and Westminster Hospital NHS Foundation Trust. Estos ensayos clínicos se centrarán en evaluar los beneficios de implementar el modelo con pacientes reales y comenzarán a mediados de 2025. Los pacientes se reclutarán en clínicas ambulatorias y también en las salas médicas de pacientes hospitalizados. El profesor Bryan Williams, director científico y médico de la British Heart Foundation , que financió la investigación, afirmó: “Este estudio amplio y emocionante ofrece una visión de cómo se podría utilizar la IA para mejorar el diagnóstico de enfermedades cardíacas. Los ECG se han utilizado para evaluar el corazón durante más de un siglo, y esta investigación ha demostrado el extraordinario poder de la IA para obtener información importante sobre la salud a partir de una prueba de rutina. Esto podría llevar el uso de los ECG más allá de lo que era posible hasta ahora, al ayudar a evaluar el riesgo de futuros problemas cardíacos y de salud, así como el riesgo de muerte”.  “Esperamos ver cómo se

Leer más »

Inteligencia artificial y computación cuántica: la revolución tecnológica de IBM

Agustín Bellido, CEO de IBM, dio detalles sobre los pasos agigantados que IBM lleva adelante en materia de computación y seguridad informática de la mano de la inteligencia artificial. La tecnología es algo que atraviesa toda la vida humana y, aunque últimamente se puso de moda la inteligencia artificial, es algo que desde hace años funciona en cada clic y en cada acción que realizamos con nuestros dispositivos. Al mismo tiempo, los temores por la seguridad, hasta donde puede llegar la tecnología y las dudas sobre el futuro son parte de las preocupaciones diarias. En ese sentido, Agustín Bellido, CEO de IBM para el Cono Sur dialogó con MDZ y dio detalles sobre la mirada del mundo sobre Argentina, la importancia de la inteligencia artificial como complemento para facilitar el trabajo de los hombres, las claves de la seguridad y la innovadora llegada de la computación cuántica que cambiará la forma de entender el mundo de las informáticas y los procesos tecnológicos. – ¿Cómo es la relación hoy con Argentina? Porque IBM hoy hace otros productos que está desarrollando. Están más cercanos de la vida diaria, ¿pero en qué? – Hoy IBM está desarrollando, lanzando y poniendo en la mano de las personas tecnología. Esa es nuestra esencia y también manos que implementen esa tecnología tanto para empresas como para como para el Estado. ¿Qué es IBM en Argentina? Hoy decimos que, en promedio, nueve veces interactúan argentinos con tecnología, porque o haces una transacción con tu tarjeta de crédito, o haces una transacción en la app, o interactúas con con un asistente para contratar o para declarar un siniestro en un seguro, o porque haces algo con una obra social y uno de los canales digitales la gestión de ese de esa información también lo hace IBM. mdz. R. R. Así que IBM está en el mundo de la tecnología e interviene en la vida cotidiana de cada uno de nosotros a través de las marcas, a través de nuestros clientes. Ese nuestro espíritu. Es cómo facilitar a través de la tecnología la interacción y agregar valor a nuestros clientes para los clientes finales.

Leer más »
Los astrónomos descubren el primer paso en la formación planetaria

VALIOSO Y EXCLUSIVO SAT-SISTEMA DE ALTA TEMPRANA DE ABANDONO DE ESTUDIANTES FUE DESARROLLADO POR CIENTIFICOS ARGENTINOS. INDENTIFICA Y CARACTERIZA CADA SITUACION.

Importante herramienta para Gobiernos, Universidades Publicas y Privadas y aun establecimientos de enseñanza secundaria. Entrevista al Dr. Pablo Carranza Ceo de Rio Data Análisis LA SITUACION “El abandono de estudiantes ingresantes universitarios se refiere a la situación en la que estudiantes que recientemente han comenzado sus estudios universitarios deciden dejar sus carreras antes de completarlas” comenzó analizando el Dr. Carranza. “Este fenómeno es de suma importancia por el impacto que tiene no solo en esos estudiantes, sino también en la universidad misma e incluso en la sociedad, por la pérdida de futuros profesionales” puntualizo el profesional. DATO PREOCUPANTE “Con algún margen de error podríamos decir que sólo el 10 % de los ingresantes se gradúan en Argentina. Las razones son múltiples y van más allá de déficits en aprendizajes que deben estar disponibles al ingreso universitario” alerto el Dr. Carranza SAT “Para abordar este problema, una de las opciones es el llamado Sistema de Alertas Temprana (SAT) de abandono. El objetivo de un SAT es brindar una alerta a la institución indicando cuándo un estudiante está en riesgo de abandono con la intención de intervenir y ayudar al estudiante, precisamente antes de que concrete el abandono” explico el Científico SAT CLASICO “Un SAT clásico consiste en utilizar herramientas de machine learning relevando datos de los ingresantes durante varios meses y así generar alertas cuando un estudiante entra en la caracterización de “riesgo de abandono”. Generalmente estos SAT funcionan en base a las calificaciones, las asistencias a clase, el pago de cuotas, etc”, siguió explicando el Dr. Carranza. “Uno de los problemas de estos SAT clásicos es que lo identifica al estudiante, pero no lo caracteriza. Es decir, no se saben las razones por las cuales estaría abandonando. Esta falta de información no ayuda mucho al equipo de intervención de la institución pues si bien se sabe que con quién hay que intervenir pronto, pero no se sabe en qué”. Cerrando el análisis de este punto. EL SAT QUE INDENTIFICA Y CARACTERIZA CADA SITUACION. “En Río Data Análisis estamos implementando un tipo de SAT llamado híbrido, que no solo identifica a los estudiantes sino que también los caracteriza, permitiendo a la institución contar con información para diseñar sus intervenciones, desde la primera semana en la universidad” nos informa el Ceo de Rio Data Análisis “La primera caracterización la basamos en dos dimensiones muy relacionadas con el abandono: el proyecto de vida y la resiliencia. Con encuestas validadas internacionalmente relevamos las percepciones de los estudiantes sobre estas dos dimensiones y generamos un tablero interactivo de indicadores para la institución, como el que muestra la figura”: ANALISIS FINAL “Este tablero de indicadores inicial es luego enriquecido con otras dimensiones, tales como técnicas de estudio por ejemplo; incluso con variables de desempeño y de participación. No solo ello, es posible también integrar variables pedagógico-didácticas que permitan asociar el abandono a metodologías o propuestas no motivadoras. Así entonces consideramos que la causa del abandono no solo es por “problemas” en los estudiantes sino también por otros generados por la institución”, Cerro finalmente, con seguridad, el Dr. Pablo Carranza. https://riodataanalisis.com.ar/ Dr. Pablo Carranza: Doctor en didáctica de la matemática y la estadística por la Universidad Denis Diderot (Francia 2009). Profesor investigador de la Universidad Nacional de Río Negro y socio Fundador en la consultora de análisis de datos Río Data Análisis. www.linkedin.com/in/dr-pablo-carranza Lic. Evangelina Palopolo: Licenciada en Biología (UNLP) y Doctora con Mención Ciencias de la Tierra (UNRN).Socio Fundador en la consultora de análisis de datos de Data Análisis. Trabajando en análisis de datos por IA desde hace unos años. https://www.linkedin.com/in/evangelina-palopolo/ Redaccion, www.chubutdigital.com.ar

Leer más »

LA CIENCIA DE DATOS Y SUS APORTES EN EL CAMPO DE LA GESTIÓN DE LAS ENERGÍAS

Dos referentes científicos en la ciencia de datos, la Dra. Débora Chan y el Dr. Andrés Farall, fueron entrevistados por www.chubutdigital.com.ar En cuanto al objetivo de aplicación en energías renovables de las técnicas de machine learning, indicaron que “existen múltiples aplicaciones en el campo de las energías renovables de las estrategias del aprendizaje automático (machine learning), por ejemplo, podría ser muy provechosa su aplicación para mejorar los pronósticos de oferta y demanda energética. Estos pronósticos se realizan in situ basados en datos de redes de estaciones meteorológicas”. PREDICCIONES MÁS PRECISAS “Los pronósticos meteorológicos globales y regionales disponibles no pueden predecir con precisión las condiciones meteorológicas específicas de una variable (por ej. intensidad del viento o radiación solar) y locación en particular” señalaron los científicos a la vez que destacaron que “estos pronósticos generales están diseñados para predecir las condiciones medias de grandes áreas geográficas, y de las principales variables atmosféricas. En tanto que la producción de energías renovables depende, para su gestión eficiente, de la predicción de variables específicas en puntos geográficos determinados. Ejemplo de esto es la predicción de fuertes ráfagas de viento que afectan la producción de energía eólica forzando a los parques eólicos a limitar su producción. Otro evento notable en la producción de energía solar es la disminución de radiación incidente producto de altos niveles de nubosidad. Estos dos últimos ejemplos se vinculan con la oferta energética. También es importante predecir eventos que se asocian con la demanda energética, como por ejemplo una ola de calor en el periodo estival que produce un incremento notable de la demanda eléctrica como consecuencia de la refrigeración de los ambientes”. VENTAJAS Con relación a las ventajas que tendría la mejora en la predicción para la producción de energía, los especialistas expusieron que “con base en una cierta estación meteorológica (generalmente de tipo automática), a la que llamaremos la estación de interés, se puede construir un modelo predictivo usando técnicas de machine learning, aprovechando los datos de variables meteorológicas definidas específicamente para la localización y el fenómeno de interés. Estas técnicas deben aprender las relaciones existentes entre las salidas de los pronósticos generales (i.e. GFS), la evolución de las variables atmosféricas medidas en otras estaciones vecinas, y los valores observados en la estación meteorológica de interés. Una vez aprendidas estas relaciones, el usuario (el productor de energía) dispondrá de predicciones más precisas sobre las variables y eventos meteorológicos definidos como relevantes” remarcando que “este enfoque ofrece dos potenciales beneficios para los productores energéticos y la gestión de la energía renovable en general; el primer beneficio concierne a la mejora en el pronóstico del generador que posee la estación de interés mientras que el segundo beneficio concierne a la provisión de pronósticos alternativos mejorados para todos los generadores de energía cuyas actividades se hallen en el área de influencia de la red de estaciones meteorológicas. De esta forma existe un incentivo para el crecimiento y mantenimiento de la red. La mejora en la precisión de los pronósticos meteorológicos localizados redundaría en una mejora en la toma de decisión de los generadores de energía, pudiendo anticiparse mediante diferentes estrategias a la ocurrencia de ciertos eventos relevantes”. SOLUCIONES PARA LAS DIFICULTADES En cuanto a las dificultades que podría solucionar una aplicación como esta, Chan y Farall mencionaron que “una característica esencial inherente a las energías renovables es su alta variabilidad en términos de su generación en el corto plazo, así como la fluidez de la misma. En el caso de la generación de la energía eólica, específicamente en las regiones de fuertes vientos, es habitual que la intensidad (y en algunos casos la dirección) de los mismos posea de una alta variabilidad. Esta alta variabilidad resulta perjudicial para los sistemas integrados energéticos como es el caso de nuestro país, puesto que dificulta la previsión de una oferta energética estable a lo largo del tiempo. De todo esto surge la necesidad de contar con sistemas de predicción de alta precisión para asegurar la estabilidad del sistema” e informaron que “la energía eólica representó un tercio del crecimiento total de la generación de energías renovables en los últimos años. En un sistema como el argentino en el cual se combinan los sistemas de energía eólica con los de energía hidroeléctrica, estas previsiones se convierten en fundamentales pues una caída en la oferta de energía eólica puede muy bien ser compensada por la fuente hidroeléctrica pero con un rezago de horas. Este es el tiempo que les toma la puesta en marcha a las turbinas de la fuente hidroeléctrica. ESTRATEGIAS Con relación a las estrategias que serían adecuadas para esta implementación, destacaron que “las metodologías avanzadas de machine learning permiten hoy realizar pronósticos precisos en tiempo real, aprovechando la información disponible tanto histórica local como meteorológica integrada. Entre las técnicas más desarrolladas recientemente podemos mencionar las redes neuronales artificiales, los métodos de boosting y bagging. El desarrollo reciente de tecnologías asociadas a las redes neuronales ha impactado en múltiples campos del conocimiento en general y especialmente en aquellos que se nutren de datos provenientes de distintas fuentes, como imágenes, señales, lenguaje, audio, etc. Entre las técnicas de mayor difusión en la actualidad cabe destacar las redes neuronales generativas, como las que están detrás del ChatGPT, Bard, Claude y otros LLM (Large Language Models). La potencia de estas redes también puede ser utilizada para generar pronósticos con alto nivel de precisión”. APORTES PARA ENERGÍAS COMO EL PETRÓLEO “La prospección sísmica es una técnica crucial para encontrar yacimientos de petróleo” señalaron los científicos destacando que “la ciencia de datos ayuda a procesar y analizar grandes volúmenes de datos sísmicos para identificar estructuras geológicas y predecir la ubicación de reservas de petróleo. También puede ser de interés construir modelos para estimar reservas de cantidad de petróleo recuperable por yacimiento; estos modelos pueden considerar simultáneamente las características estructurales del yacimiento y la incertidumbre geológica. Otro campo interesante de aplicación es la optimización de la producción y el mantenimiento preventivo de las maquinarias, con un análisis en tiempo real y

Leer más »

LA INTELIGENCIA ARTIFICIAL ESTÁ UNIENDO A IMPORTANTE EQUIPO INTERDISCIPLINARIO DE BIÓLOGOS E INGENIEROS DE ALEMANIA Y ARGENTINA EN EL ESTUDIO DE LA MAYOR COLONIA DE LOROS DEL MUNDO SITUADA EN EL CÓNDOR RÍO NEGRO ARGENTINA

Para el conteo de las entradas de nidos de loros barranqueros se están utilizando redes neuronales convolucionales Un equipo compuesto por biólogos e ingenieros está llevando a cabo un trabajo de conteo de nidos, mediante técnicas de inteligencia artificial, en la colonia de Loros Barranqueros, Cyanoliseus patagonus, ubicada en un acantilado frente al Océano Atlántico en cercanías del balneario El Cóndor, provincia de Río Negro, en el Noreste de la Patagonia Argentina. En el mundo de la ecología, contar poblaciones animales es fundamental para comprender los procesos ecológicos. Sin embargo, en el caso de grandes poblaciones, contar manualmente puede ser tedioso y condicionado a errores. En este estudio, se utilizan redes neuronales convolucionales (CNN; un subconjunto de aprendizaje automático que usa algoritmos de aprendizaje profundo) para contar el número de entradas de nidos de loros en fotografías tomadas en la colonia de Psittaciformes (“los que tienen forma de loro” según su etimología; es decir loros, cotorras, catitas, guacamayos, papagayos y cacatúas) más grande del mundo. Así es, de todas las especies de loros en el mundo, esta es la colonia más grande en cuanto a número de individuos. El objetivo principal de este proyecto es obtener el número total de entradas de nidos de la colonia e investigar la distribución de dichas entradas a lo largo del acantilado. La colonia evoluciona con el tiempo y tiene hoy una extensión de unos 18 kilómetros. Mediante relaciones obtenidas en trabajos de campo previos, los biólogos pueden estimar el número aproximado de individuos, en función de la cantidad de entradas de nidos. Una de las 222 imágenes utilizadas en el trabajo de conteo. Recuadro: un detalle de los nidos, con una pareja de Loros Barranqueros en la entrada de un nido (fotografía: Alejandro Balbiano). El equipo de investigación está compuesto por el Dr. Juan F. Masello (JFM) de la Universidad de Bielefeld, Alemania, y de la Universidad de Venda, Sudáfrica, el biólogo Mauricio Failla (MF) del proyecto Patagonia Noreste, con sede en Viedma, el ing. Gabriel Zanellato (GZ) de la Fundación Soberanía con sede en Cinco Saltos, y el ing. Gabriel Pagnossin (GP) de la Universidad Nacional de Río Negro. JFM, GP y GZ concibieron y diseñaron el estudio. MF, JFM y GP efectuaron el trabajo de campo a través del relevamiento fotográfico de la colonia, de donde JFM tomó los parches utilizados en el trabajo. GZ estuvo a cargo de la programación del código para crear los modelos y ejecutar los conteos. PRECISIÓN Y EFICIENCIA En una entrevista realizada al Ing. Gabriel Zanellato este destacó “La importancia del trabajo en equipo y la colaboración de expertos en diferentes áreas fue fundamental para el éxito de este proyecto” explicando que “las CNN ayudan en el conteo de entradas de nidos de loros en fotografías al automatizar el proceso. En el estudio realizado por el equipo de investigación, se utilizaron diferentes arquitecturas de CNN, como U-Net, ResUnet y DeepLabv3, para procesar las imágenes de la colonia de loros. Estas redes permiten contar con precisión y eficiencia, ahorrando tiempo y eliminando errores asociados con el conteo manual. Se utilizó tecnología GPU (del inglés, Graphics Processing Unit, un tipo de procesador que maneja y acelera la representación de gráficos) para mejorar el rendimiento de las CNN, facilitando el análisis de grandes conjuntos de datos de manera más efectiva”. TÉCNICA Zanelatto dio detalles sobre la técnica utilizada: “en lugar de detectar y localizar instancias u objetos en una imagen, el objetivo es estimar un mapa de densidad de la imagen. Luego, al integrar o sumar los valores de píxeles sobre cualquier región de dicho mapa de densidad, se obtiene el recuento de objetos dentro de dicha región. El proceso de aprender a inferir dicha densidad implica minimizar una función de costos. Al trabajar bajo un esquema de aprendizaje supervisado, se necesitan mapas de densidad etiqueta o ground-truth (del inglés, «verificación fundamental»; se refiere al proceso de recopilar los datos objetivos, probables, adecuados para una prueba dada), que se comparan con los mapas de densidad predichos durante el proceso de entrenamiento. Para obtener los mapas de densidad ground-truth, un biólogo experto demarca manualmente la ubicación aproximada del centro de las entradas de los nidos en el conjunto de parches de entrenamiento, produciendo así un nuevo conjunto de imágenes punteadas compuestas por un fondo negro y lo píxeles individuales esparcidos, cada uno con valor 1. La colonia está representada en su totalidad por 222 fotografías cada una de 3000 x 4000 píxeles, y sobre ellas se extraen aleatoriamente 156 parches representativos de 256 x 256 píxeles” VENTAJA DEL PROCESO Destacando que “aquí radica la ventaja de este proceso, ya que sólo se demarcan los parches de entrenamiento seleccionados aleatoriamente, en lugar de utilizar el conjunto completo de imágenes, lo que sería el tedioso proceso manual previo que queremos automatizar, ahorrando así un tiempo valioso para el biólogo. El siguiente paso es aplicar una convolución gaussiana (es decir, un tipo general de media matemática móvil, como se puede observar si una de las funciones se toma como la función característica de un intervalo) sobre las imágenes de puntos, un proceso que difuminará los puntos, creando los mapas de densidad. Luego, mediante técnicas de data augmentation (es decir, la generación de señales sintéticas, en este caso imágenes, reorganizando componentes de datos reales, en este caso los parches) se lleva el número total de parches a 312. Aplicamos simplemente un volteado horizontal. DIVISIÓN DE DATOS El Ingeniero detalló que “una vez generada la totalidad de parches, se procede a crear conjuntos de entrenamiento, validación y testeo. Esta división de los datos sirve para entrenar el modelo en el conjunto de entrenamiento, ajustar los hiperparámetros utilizando el conjunto de validación y evaluar el rendimiento del modelo final en el conjunto de testeo. Con el objetivo de asegurar una distribución estadística similar entre los conjuntos y reducir cualquier sesgo subyacente en los datos, se mezclaron los parches y se entrenaron siete modelos diferentes para cada una de las tres arquitecturas”. PASO FINAL “El

Leer más »