更新时间:
益阳防盗门开锁全国统一售后服务预约热线400客户报修中心
益阳防盗门开锁全国售后服务电话:400-188-5786 400-188-5786 (温馨提示:即可拨打)
益阳防盗门开锁各市区24小时售后客服热线〔2〕400-188-5786、400-188-5786
7天24小时人工电话400-188-5786 400-188-5786客服为您服务、益阳防盗门开锁售后服务团队在调度中心的统筹调配下,线下专业全国网点及各地区售后人员服务团队等专属服务,整个报修流程规范有序,后期同步跟踪查询公开透明。
所有售后团队均经过专业培训、持证上岗,所用产品配件均为原厂直供,
通电专业维修正伦跑步机不通电,不正常工作、滴滴、、显示故障代码等一系列故障。
全国服务区域:北京、上海、南京、宁波、福州、福州、昆山、舟山、洛阳、合肥、九江、天津、成都、廊坊、西安、、长沙、武汉、张家界、深圳、广州、福州、昆明、太原、常州、徐州、镇江,黄石,大冶,铜陵,芜湖,苏州,张家港,太仓等城市。
益阳防盗门开锁全国维修服务网点查询:
北京市(东城区、西城区、崇文区、宣武区、朝阳区、丰台区、石景山区、海淀区、门头沟区、房山区、通州区、顺义区、昌平区、大兴区)
上海市(浦东新区、徐汇区、黄浦区、杨浦区、虹口区、闵行区、长宁区、普陀区、宝山区、静安区、松江区、嘉定区、金山区、青浦区、奉贤区)
成都市(锦江区,青羊区,金牛区,武侯区,成华区,龙泉驿区,青白江区,新都区,温江区,双流区,郫都区)
长沙市(芙蓉区,天心区,岳麓区,开福区,雨花区,望城区)
昆明市(五华区,盘龙区,官渡区,西山区,东川区,呈贡区,晋宁区,富民区)
广州市(荔湾区、越秀区、海珠区、天河区、白云区、黄埔区)
深圳市(罗湖区、福田区、南山区、宝安区、龙岗区、盐田区)
杭州市(上城区、下城区、江干区、拱野区、西湖区、滨江区、余杭区)
武汉市(江岸区、江汉区、硚口区、汉阳区、武昌区、青山区、洪山区、江夏区、沌口区、蔡甸区、东西湖区、经济开发区、东湖高新区、)
西安市(新城区、碑林区、莲湖区、灞桥区、未央区、雁塔区)
苏州市(虎丘区、吴中区、相城区、姑苏区、吴江区)
南京市(玄武区、白下区、秦淮区、建邺区、下关区、浦口区、栖霞区、雨花台区、江宁区、)
宁波市(海曙区、江东区、江北区、北仑区、镇海区)
天津市(和平区、河东区、河西区、南开区、河北区、红桥区、塘沽区、汉沽区、大港区、东丽区、西青区、津南区、北辰区、武清区、宝坻区)
无锡市(梁溪区、滨湖区、惠山区、新吴区、锡山区)
合肥市(蜀山区、包河区、庐阳区、瑶海区、政务区、经济技术开发区、高新区、滨湖新区、新站区)
福州市(鼓楼区、台江区、仓山区、马尾区、晋安区、长乐区)
南宁市(兴宁区、青秀区、西乡塘区、江南区、良庆区)
太原市(小店区、迎泽区、杏花岭区、尖草坪区、万柏林区、晋源区)
南昌市(东湖区、西湖区、青云谱区、湾里区、青山湖区、新建区)
兰州市(城关区、七里河区、西固区、安宁区、红古区)
(来源:MIT News)
机器学习模型虽然功能强大,但可能会出错,并且通常难以使用。为了帮助用户了解何时以及如何信任模型的预测,科学家们开发了各种解释方法。然而,这些解释往往十分复杂,可能涉及数百个模型特征,有时还以多层次的可视化形式呈现,这让缺乏机器学习背景的用户难以完全理解。
为了解决这一问题, MIT 的研究人员利用 LLMs 将基于图表的解释转化为通俗易懂的语言。他们开发了一套系统(包含两个部分),先将机器学习模型的解释转换为人类可读的文字段落,然后自动评估这些叙述的质量,从而让终端用户了解这些解释是否值得信任。
通过为系统提供一些示例解释作为提示,研究人员能够定制系统输出的内容,以满足用户的偏好或特定应用场景的需求。
从长远来看,研究人员希望在这一技术基础上进一步发展,使用户能够在现实环境中向模型提出后续问题,了解其预测的依据。
“我们开展这项研究的目标是迈出第一步,最终实现用户能够与机器学习模型进行深入对话,了解模型为何做出特定预测,从而更好地判断是否采纳模型的建议。”
MIT 电气工程与计算机科学研究生、论文第一作者 Alexandra Zytek 表示。
该论文的合著者包括 MIT 博士后研究员 Sara Pido,EECS 研究生 Sarah Alnegheimish,法国国家可持续发展研究院研究主管 Laure Berti-Équille,以及论文的资深作者、MIT 信息与决策系统实验室首席研究科学家 Kalyan Veeramachaneni。
这项研究将在IEEE大数据会议上展示。
解读模型背后的逻辑
研究人员重点研究了一种流行的机器学习解释方法——SHAP。在 SHAP 解释中,模型会为每个特征分配一个数值,以表明该特征对预测结果的影响。例如,当一个模型用于预测房价时,房屋位置可能是其中一个特征,而位置这一特征将被赋予一个正值或负值,表示它对模型整体预测的增减作用。
SHAP 解释通常以柱状图形式展示哪些特征最重要或最不重要,然而,当模型包含超过 100 个特征时,这种柱状图可能变得难以解读。
“作为研究人员,我们必须对展示内容做出许多选择。如果我们只显示前 10 个特征,用户可能会质疑其他特征为什么没出现在图中。而使用自然语言可以免除我们做出这些选择的负担。”资深作者 Kalyan Veeramachaneni 解释道。
但不同于直接使用 LLM 生成自然语言解释,研究人员采用 LLM 将已有的 SHAP 解释转化为可读的叙述,以减少生成过程中可能引入的误差。
研究人员开发的系统名为 EXPLINGO,包含两个协作部分。第一部分名为 NARRATOR,利用 LLM 将 SHAP 解释转化为符合用户偏好的自然语言叙述。通过向 NARRATOR 提供 3 至 5 个手写的示例叙述,LLM 可以模仿这些样例的风格生成文字。
Zytek 指出:“与其让用户定义他们需要什么样的解释,不如让他们直接写下想要看到的内容,这样更简单。”
这种方法使 NARRATOR 可以通过不同的手写示例轻松适应新的应用场景。
在 NARRATOR 生成通俗语言解释后,第二部分 GRADER 会利用 LLM 根据四项指标对叙述质量进行评估:简洁性、准确性、完整性和流畅性。GRADER 会自动将 NARRATOR 生成的文字与对应的 SHAP 解释一起输入 LLM 进行验证。
Zytek 表示:“我们发现,即使 LLM 在执行任务时可能出错,它在验证和检查任务时通常不会出错。”
此外,用户还可以根据需求调整 GRADER 中各指标的权重。“比如在高风险场景下,可以优先考虑准确性和完整性,而降低对流畅性的要求。”她补充道。
优化自然语言叙述
对 Zytek 及其团队来说,调整 LLM 以生成自然流畅的叙述是他们面临的最大挑战之一。通常情况下,添加越多的风格控制规则,LLM 越容易在解释中引入错误。
“我们在提示调优上花了很多时间,一次次发现问题并逐个修复。”她说道。
为测试他们的系统,研究人员使用了九个带有解释的机器学习数据集,并让不同用户为每个数据集撰写叙述。他们用这些样例来评估 NARRATOR 模仿不同写作风格的能力,同时利用 GRADER 从简洁性、准确性、完整性和流畅性四个维度对每条叙述进行评分。
最终,研究表明他们的系统可以生成高质量的自然语言解释,并成功模仿不同的写作风格。
研究结果显示,提供少量手写示例显著提升了叙述风格的质量。然而,这些示例需要非常精心编写。比如,加入“更大”之类的比较词汇,可能会导致 GRADER 错误地将准确的解释标记为不正确。
基于这些成果,研究团队计划探索更好的技术,以帮助系统更好地处理比较词。此外,他们希望通过为解释加入逻辑推理功能,进一步扩展 EXPLINGO 的能力。
从长远来看,他们希望将这项研究发展为一个交互式系统,使用户能够就某一解释向模型提出后续问题。
“这在决策过程中非常有帮助。如果用户对模型的预测结果有异议,我们希望他们能迅速判断自己的直觉是否正确,或者模型的直觉是否正确,并找到分歧的来源。”Zytek 解释道。
https://news.mit.edu/2024/enabling-ai-explain-predictions-plain-language-1209