贾浩楠 发自 凹非寺 量子位 报道 | 公众号 QbitAI 用你的AI算法和小白鼠一较高下,还能赢得3万美元(20万元)奖金。 稳赚?快别这么想。 实际情况是,机器学习算法一般都是在给定条件的任务中有较好的表现,但现实情况则要复杂很多。举例来说,一个老鼠在迷宫中或有遮挡的环境中寻找食物的表现要比一个AI好得多。 DeepMind就以动物认知测试为基础开发了一套强化学习任务集Animal-AI,用来供开发者测试自己的AI模型实用性。 前两天,Animal-AI2.0版本上线,并且在Github开源。 AI算法:我不如狗 游戏环境经常被用来评估AI的“能力”。 一般都是给定状态转移概率( state transferring probability)和奖励函数,在这样的条件下来测试模型表现。 那真实的世界真的是这样的吗? 当然不是,真实的世界要复杂地多,在面对复杂任务时,动物的表现往往优于AI。 比如下图,简单的把食放在一个透明管中,狗能明白把头伸进管子里就能获得食物,而一个强化学习AI完全懵了。 DeepMind研究人员基于动物认知的研究开发了这个测试环境,旨在让强化学习算法的开发者,通过动物的行为模式中获得启发,改善算法性能。 这个项目包含了训练环境、训练库以及900个测试和/或训练任务。900个任务由浅入深,被分为不同的类别,以反映不同的认知能力。 该环境使用Unity ml-agent建立。其中包含一个固定大小的竞技场,和一个已经训练好的模型。 竞技场中包含各种物体,包括正负奖励(绿色、黄色和红色球体)、障碍物、雷区、不同的地形等。你的AI任务是在场地中收集正激励(黄绿球)。 安装教程 Animal-AI可以在Mac、Linux、Windows上运行,要求Python3。 首先安装必要运行环境,Github项目主页提供了不同系统的环境下载: 将安装包解压到examples/env文件夹下。Linux系统可能需要先运行一行代码: chmod +x env/AnimalAI.x86_64 Animal-AI包里面是一个Unity环境交互应用接口,包括一个gym环境、一个扩展Unity ml-agent环境。通过以下代码安装: pip install animalai 项目还提供一个可以用来训练模型的包,通过以下代码安装: pip install animalai-train 环境配置好以后,在examples路径下运行: pip install -r requirements.txt 启动jupyter notebook并运行environment和training。 测试实例 这里测试的算法是在2019年Animal-AI Olympic大赛中获得第一名的算法。 一个简单的寻找食物的任务: 更进一步,在一个有静止负激励的复杂环境中寻找食物,AI面对复杂环境时直接卡死在场地右下角: 让红色的球(负面激励)动起来,AI需要在动态环境中寻找食物: 再增加难度,使环境更复杂,可以看到AI直接卡死在角落里了: 一个Y型迷宫: 工具使用(这个任务中,AI必须使用跷跷板才能收集到食物): 这种复杂的任务绝大部分AI都无法完成,不是围绕红区直至时间耗尽,就是直接卡死在墙角。 可以看到,低等级的动物行为测试任务,一般的AI都能完成,而稍微加大难度,AI就会「无所适从」,直接卡死,这一系列任务让不少满怀信心的AI开发者铩羽而归。 项目的开发者发起了Animal-AI Olympics,征集全世界的强化学习AI才挑战这些任务,奖金高达3万美元,2019年的比赛已经结束。 可以看到,第一名平均分也只有43.7,在复杂决策,比如避障、因果推理等项目上得分都很低。 组织者还计划在2021年举行第二届大赛,你是否准备好用自己的强化学习算法去赢取这3万美元了呢? 来源: 量子位 |