¿América o Monterrey? La IA predice al campeón del Apertura 2024

El Torneo Apertura 2024 de la Liga MX está en la fase final, y la pregunta que ronda en la mente de todos los aficionados del futbol mexicano es: ¿Quién se coronará campeón entre América y Monterrey? Ambos equipos llegan a la final como parte de los máximos favoritos de los últimos años, con plantillas llenas de talento y un historial que avala su capacidad para conquistar el título.

Para predecir quién puede ser el campeón del Torneo Apertura 2024, recurrimos a la Inteligencia Artificial de ChatGPT. El robot explicó que:

El América es, sin duda, uno de los equipos más ganadores y populares de la Liga MX. El conjunto de Coapa tiene una historia de éxito que incluye 15 títulos de la Liga MX y jugadores de renombre que han dejado huella en el futbol mexicano, al menos así ha sido en estos dos últimos campeonatos, cuando se unió al grupo de bicampeones en la era de los torneos cortos. En esta temporada, el equipo dirigido por André Jardine ha mostrado un futbol equilibrado, liderado por figuras como Henry Martin, Álvaro Fidalgo, Rodrigo Aguirre, y su portero, el seleccionado nacional Luis Ángel Malagón.

Las Águilas han sido un equipo sólido en todas las líneas, destacando por su capacidad al anotar y defender, y su fortaleza en casa, aunque esta vez tendrá como sede para la final de ida el Estadio Cuauhtémoc de Puebla. Además, su mentalidad ganadora y la experiencia en finales podrían ser factores muy importantes para inclinar la balanza a su favor.

Estos son los récords que el Cruz Azul puede romper en el Apertura 2024

A tres jornadas de que finalice el Apertura 2024, Cruz Azul puede romper récords como el club con más puntos, con más goles y con más victorias en un torneo corto.

La Máquina ya ostenta, junto al León, la marca de más puntos, por los 41 que consiguieron en el torneo Guard1anes 2021 (Clausura), donde además lograron su noveno campeonato.

En ese mismo torneo empataron el récord de más victorias el torneos cortos, 13, que comparten con Toluca, América y León; actualmente tienen 12 triunfos y 37 puntos, por lo que ambos récords lucen al alcance de sus manos.

Meta lanza herramienta de IA que evalúa otros modelos sin intervención humana

Meta lanza herramienta de IA que evalúa otros modelos sin intervención humana

Meta, la empresa matriz de Facebook, anunció el lanzamiento de una serie de nuevos modelos de inteligencia artificial, destacando un “evaluador autodidacta”. Esta herramienta promete reducir la intervención humana en el desarrollo de la IA y vislumbrar un futuro con agentes autónomos capaces de aprender de sus errores.

Innovación en la evaluación de IA

El lanzamiento sigue a la presentación de esta herramienta en un artículo de agosto, donde se explicó que se basa en la técnica de “cadena de pensamiento”, similar a la utilizada por los modelos de OpenAI. Esta técnica descompone problemas complejos en pasos lógicos más simples, mejorando la precisión en campos como ciencias, codificación y matemáticas.

Los investigadores de Meta entrenaron el modelo evaluador utilizando datos generados exclusivamente por IA, eliminando la necesidad de intervención humana en esa fase. Esto sugiere un camino hacia la creación de agentes de inteligencia artificial que puedan operar de manera autónoma.

Ventajas de la autoevaluación

La capacidad de la IA para evaluar su propio rendimiento sin intervención humana podría transformar el desarrollo de sistemas inteligentes. Este enfoque elimina la dependencia del costoso y a menudo ineficaz proceso de aprendizaje por refuerzo con retroalimentación humana, que requiere expertos para etiquetar datos y verificar la precisión de respuestas a consultas complejas.

“Esperamos que, a medida que la IA se vuelva más avanzada, sea capaz de evaluar su propio trabajo, superando la capacidad del ser humano promedio”, afirma Jason Weston, uno de los investigadores involucrados en el proyecto.

Competencia en el campo de la IA

Otras empresas, como Google y Anthropic, también están explorando el concepto de RLAIF (Reinforcement Learning from AI Feedback). Sin embargo, a diferencia de Meta, estas compañías suelen mantener sus modelos en secreto.

Nuevas herramientas de Meta

Además de la herramienta evaluadora, Meta también lanzó una actualización del modelo de identificación de imágenes llamado Segment Anything, así como una herramienta que acelera los tiempos de generación de respuestas LLM. También presentaron conjuntos de datos para ayudar en el descubrimiento de nuevos materiales inorgánicos.

Combatirán los engaños electorales generados con IA

Varias empresas tecnológicas muy destacadas firmaron ayer un pacto para adoptar voluntariamente “precauciones razonables” a fin de impedir que se utilicen herramientas de inteligencia artificial (IA) para trastornar elecciones democráticas en el mundo.

Directivos de Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI y TikTok se reunieron en la Conferencia de Seguridad de Múnich para anunciar un nuevo marco sobre cómo responder a las deepfakes -imágenes generadas por inteligencia artificial- que son utilizadas para engañar deliberadamente a los votantes. Otras 12 empresas, entre ellas X de Elon Musk, también firmarán el acuerdo.

“Todo el mundo reconoce que ninguna empresa tecnológica, ningún Gobierno y ninguna organización de la sociedad civil por sí sola puede afrontar el advenimiento de esta tecnología y su posible uso nefasto”, dijo Nick Clegg, presidente de asuntos globales de Meta -la empresa matriz de Facebook e Instagram- en una entrevista antes de la conferencia.

El acuerdo, en gran medida simbólico, apunta a las imágenes, audio y video cada vez más realistas generados mediante IA “que alteran o falsifican engañosamente la apariencia, voz o acciones de candidatos políticos, funcionarios electorales y otros interesados cruciales en una elección democrática, o que brindan información falsa a los votantes acerca de cuándo, dónde y cómo pueden votar legalmente”.

Las empresas no se comprometen a prohibir o borrar los deepfakes. En lugar de eso, el acuerdo esboza los métodos que usarán para intentar detectar y etiquetar el contenido engañoso generado por IA cuando sea creado o difundido en sus plataformas. Las compañías compartirán entre ellas los mejores métodos y responderán “de manera veloz y proporcional” cuando ese contenido empiece a propagarse.

La vaguedad de los compromisos y la ausencia de requisitos vinculantes probablemente ayudó a atraer a una amplia gama de empresas, pero algunos activistas decepcionados esperaban algo más concreto y firme.