Unity 机器学习代理工具包 (ML-Agents) 是一个开源项目,它使游戏和模拟能够作为训练智能代理的环境。
您最多选择25个主题 主题必须以中文或者字母或数字开头,可以包含连字符 (-),并且长度不得超过35个字符
 
 
 
 
 
GitHub d7ebaae1 Return list instead of np array for make_mini_batch() (#2371) 5 年前
..
test_demo_dir GAIL and Pretraining (#2118) 6 年前
BasicLearning.pb Modified the Basic Environment (#1347) 6 年前
__init__.py Fixed imports, all tests are passing. 6 年前
mock_brain.py Return list instead of np array for make_mini_batch() (#2371) 5 年前
test.demo Demonstration Recorder (#1240) 6 年前
test_barracuda_converter.py Python code reformat via [`black`](https://github.com/ambv/black). 6 年前
test_bc.py use yaml.safe_load instead of yaml.load (#2124) 6 年前
test_bcmodule.py GAIL and Pretraining (#2118) 6 年前
test_buffer.py Return list instead of np array for make_mini_batch() (#2371) 5 年前
test_curriculum.py Python code reformat via [`black`](https://github.com/ambv/black). 6 年前
test_demo_loader.py GAIL and Pretraining (#2118) 6 年前
test_learn.py Add Multi-GPU implementation for PPO (#2288) 5 年前
test_meta_curriculum.py Python code reformat via [`black`](https://github.com/ambv/black). 6 年前
test_multigpu.py Add Multi-GPU implementation for PPO (#2288) 5 年前
test_policy.py Add environment manager for parallel environments (#2209) 6 年前
test_ppo.py Add Multi-GPU implementation for PPO (#2288) 5 年前
test_reward_signals.py Return list instead of np array for make_mini_batch() (#2371) 5 年前
test_simple_rl.py Add Multi-GPU implementation for PPO (#2288) 5 年前
test_trainer_controller.py Add Multi-GPU implementation for PPO (#2288) 5 年前
test_trainer_metrics.py Python code reformat via [`black`](https://github.com/ambv/black). 6 年前
testdcvis.demo GAIL and Pretraining (#2118) 6 年前