《Data61成立新的伦理道德人工智能研究所.docx》由会员分享,可在线阅读,更多相关《Data61成立新的伦理道德人工智能研究所.docx(3页珍藏版)》请在第一文库网上搜索。
1、Data61成立新的“伦理道德”人工智能研究所英联邦科学与工业研究组织(CS1RO)Data61与IAG和悉尼大学共同创建了一个新的人工智能(A1)研究所,旨在探索新兴技术的伦理。Data61解释说,GradientInStitUte是一个独立的非盈利组织,负责研究人工智能的道德规范,以及开发基于人工智能的道德系统,主要侧重于创建一个“所有系统都符合道德规范的世界”。“通过将道德规范纳入人工智能,我们相信我们将能够通过道德意识的机器学习创造更好的结果,从而选择避免过去错误的方法,”研究院首席执行官比尔辛普森说。“例如,在招聘时,自动化系统使用历史数据来指导决策制定时,他们可能会偏向某些职业中历
2、史上代表性不足的亚组。“通过在创建人工智能中嵌入道德规范,我们可以减轻这些在零售,电信和金融服务等行业中显而易见的偏见。”除了研究之外,预计新研究所还将通过实践,政策倡导,公众意识和培训来探索人工智能的道德规范,特别是在人道主义的道德发展和使用方面。Data61在周四的一份声明中表示,该研究所将利用研究成果创建开源道德人工智能工具,可由企业和政府采用和调整。“随着人工智能的广泛采用,确保技术的开发符合道德考虑因素至关重要,”Data61首席执行官阿德里安特纳补充道。”作为一个国家,我们需要做到这一点,从生产力的提高到新的世界价值,从A1中获益。”在Data61今年布里斯班举行的年度会议上,ZD
3、Set在Data61的工程与设计代理主管Hi1aryCinis表示道德规范就是减少危害。她说,解决根深蒂固的道德偏见的一种方法是确保构建算法的团队多样化。她说,围绕发展的“文化反思”需要发生。同样,Sa1esforce用户研究架构师KathyBaxter在今年早些时候在悉尼举行的人权与技术会议上表示,出现的一个主要问题是数据中很难看到偏见。她说,同样复杂的是公平意味着什么。“如果你按照头条新闻,你会发现A1是性别歧视,种族主义,并且充满了系统性的偏见,”她说。“人工智能基于概率和统计,”她继续说道。“如果人工智能正在使用这些因素中的任何一个-种族,宗教,性别,年龄,性取向它会不公平地剥夺一部分人口的权利,即使你没有在算法中明确使用这些因素,是你甚至不知道的代理人。“在美国,邮政编码加上收入等于种族。如果你的算法中有这两个因素,你的算法可能会根据种族提出建议J她继续建议研究需要提前进行,以确定谁将受到影响,并在“硅谷泡沫”或开发商所处的任何地点泡沫之外提供额外的观点。“人工智能从数据和数据中学习反映了过去-在渐变研究所,我们希望未来比过去好,SimPSon-YOUng周四补充说。辛普森-杨将加入IAG全资子公司Ambiata的联合创始人兼首席科学家TiberioCaetano博士,他将以首席科学家的身份指导该研究所的道德A1研究。