Entradas

RoboCat: A self-improving robotic agent

Imagen
 RoboCat: un agente robótico que se mejora a sí mismo El nuevo agente de la fundación aprende a operar diferentes brazos robóticos, resuelve tareas con tan solo 100 demostraciones y mejora a partir de datos autogenerados. Los robots se están convirtiendo rápidamente en parte de nuestra vida cotidiana, pero a menudo solo están programados para realizar bien tareas específicas. Si bien aprovechar los avances recientes en IA podría conducir a robots que podrían ayudar de muchas más maneras, el progreso en la construcción de robots de uso general es más lento en parte debido al tiempo necesario para recopilar datos de entrenamiento del mundo real.  Nuestro último artículo presenta un agente de inteligencia artificial para la robótica que se mejora a sí mismo, RoboCat, que aprende a realizar una variedad de tareas en diferentes brazos y luego autogenera nuevos datos de entrenamiento para mejorar su técnica.  Investigaciones anteriores han explorado cómo desarrollar robots que puedan aprende

RT-2: El nuevo modelo traduce la visión y el lenguaje en acción

Imagen
Robotic Transformer 2 (RT-2) Robotic Transformer 2 (RT-2) es un modelo novedoso de visión-lenguaje-acción (VLA) que aprende de datos web y robóticos y traduce este conocimiento en instrucciones generalizadas para el control robótico. Los modelos de lenguaje de visión (VLM) de alta capacidad se entrenan en conjuntos de datos a escala web, lo que hace que estos sistemas sean notablemente buenos para reconocer patrones visuales o de lenguaje y operar en diferentes idiomas. Pero para que los robots alcancen un nivel similar de competencia, necesitarían recopilar datos de robots, de primera mano, en cada objeto, entorno, tarea y situación.  En nuestro artículo , presentamos Robotic Transformer 2 (RT-2), un modelo novedoso de visión-lenguaje-acción (VLA) que aprende de datos web y robóticos, y traduce este conocimiento en instrucciones generalizadas para el control robótico, al tiempo que retiene web- capacidades de escala. Adaptación de VLM para el control robótico RT-2 se basa en VLM que t

Scaling data-driven robotics with reward sketching and batch reinforcement learning

Imagen
Al aprovechar un conjunto de datos cada vez mayor de la experiencia del robot, aprendemos políticas de control para un conjunto diverso y creciente de tareas de manipulación relacionadas. Para que esto sea posible, presentamos bosquejo de recompensas: una forma efectiva de obtener preferencias humanas para aprender la función de recompensa para una nueva tarea. esta recompensa luego se usa para anotar retrospectivamente todos los datos históricos. datos, recopilados para diferentes tareas, con recompensas previstas para la nueva tarea. El conjunto de datos masivo anotado resultante puede entonces utilizarse para aprender políticas de manipulación con refuerzo por lotes aprendizaje (RL) de la entrada visual de una manera completamente fuera de línea, es decir, sin interacciones con el robot real. Este enfoque hace que posible escalar RL en robótica, ya que ya no necesitamos ejecutar el robot para cada paso del aprendizaje. Mostramos que los entrenados Los agentes de RL por lotes, cuando

RT-1: TRANSFORMER ROBÓTICA

Imagen
El modelo RT-1 propuesto usa la arquitectura Transformer por su escalabilidad y eficiencia, recopila informacion del entorno real y diversas variables y el procesamiento en paralelo. El modelo RT-1 puede absorber con éxito datos heterogéneos de simulación y otras morfologías de robots sin sacrificar las tareas originales rendimiento y mejorando la generalización a nuevos escenarios. RT-1 es una ia que se entrena atraves de lo que capta de diversas variables, aprende de los movimientos y con ayuda del computer vision, en el cual le permiter enternder su entorno, ademas de que su aprendizaje es escalable , es un modelo muy robusto ya que puede ser experimentado para que puedar realizar las propias acciones. La cual arroja buenos resultados en eficiencia y rendimiento. Sin duda, en los proximos años se abecinan mejores modelos  sourse:  https://arxiv.org/pdf/2212.06817.pdf

Reinforcement Learning y Robotica

Imagen
Visión en tiempo real utilizando computadoras locales y remotas El aprendizaje en tiempo real es crucial para los agentes robóticos que se adaptan a entornos no estacionarios en constante cambio. Una configuración común para un agente robótico es tener dos computadoras diferentes simultáneamente: una computadora local con recursos limitados conectada al robot y una poderosa computadora remota conectada de forma inalámbrica.  Dada una configuración de este tipo, no está claro hasta qué punto el rendimiento de un sistema de aprendizaje puede verse afectado por las limitaciones de recursos y cómo usar de manera eficiente la poderosa computadora conectada de forma inalámbrica para compensar cualquier pérdida de rendimiento. En este documento, implementar un sistema de aprendizaje en tiempo real llamado sistema distribuido remoto local (ReLoD) para distribuir los cálculos de dos algoritmos de aprendizaje de refuerzo profundo (RL), Soft Actor-Critic (SAC) y Proximal Policy Optimization (PPO)

Control de robot de paso largo potenciado por ChatGPT en varios entornos

Imagen
Se puede usar ChatGPT de OpenAI en una configuración de few-shot para convertir instrucciones en lenguaje natural en una secuencia de acciones de robot ejecutables. Generación de programas para robots a partir de lenguaje natural instrucciones es un objetivo atractivo, pero la aplicación práctica usando ChatGPT todavía está en sus primeras etapas y no hay metodología todavía. Aquí, hemos diseñado indicaciones de entrada fáciles de personalizar para ChatGPT que cumplen con los requisitos comunes en muchos aplicaciones prácticas, que incluyen:  1) fácil integración con sistemas de ejecución de robots o programas de reconocimiento visual,  2) aplicabilidad a varios entornos, y  3) la capacidad de proporcionar instrucciones de pasos largos mientras se minimiza el impacto del token de ChatGPT límite.   Específicamente, las indicaciones alientan a ChatGPT a  1) generar una secuencia de acciones de robot predefinidas con explicaciones en un formato JSON legible,  2) representar el entorno op

Robots que aprenden de videos de actividades humanas e interacciones simuladas

Imagen
Los sistemas de IA de hoy en día muestran habilidades generativas cada vez más sofisticadas en tareas aparentemente creativas. Pero, ¿dónde están los robots? Esta brecha se conoce como la paradoja de Moravec , la tesis de que los problemas más difíciles en IA involucran habilidades sensoriomotoras, no pensamiento o razonamiento abstracto. Hoy,dos avances importantes hacia agentes de IA incorporados de propósito general capaces de realizar habilidades sensoriomotoras desafiantes: 1- Una corteza visual artificial (llamada VC-1): un modelo de percepción único que, por primera vez, admite una amplia gama de habilidades sensoriomotoras, entornos y encarnaciones. VC-1 está capacitado en videos de personas que realizan tareas cotidianas a partir del innovador conjunto de datos Ego4D creado por Meta AI y socios académicos. Y VC-1 iguala o supera los resultados más conocidos en 17 tareas sensoriomotoras diferentes en entornos virtuales. 2-Un nuevo enfoque llamado coordinación de habilidades ada