计算机科学家团队近期开发出一种更敏捷更具弹性的机器学习模型,它们可以周期性忘记已知信息,而现有大语言模型不具备忘却能力。
在工业界中,数据科学或机器学习的主要焦点是更偏“应用”地解决复杂的现实世界至关重要的问题,而不是理论上有效地应用这些模型于正确的数据。机器学习模型本身由算法组成,该算法试图从数据中学习潜在模式和关系,而无需硬编码固定规则。因此,解释模型如何对业务起作用总是会带来一系列挑战。有一些领域的行业,特别是在保险或银行等金融领域,数据科学家通常最终不得不使用更传统的机器学习模型(线性或基于树的)。原因是模型可解释性对于企业解释模型所采取的每个决策非常重要。
可解释性是指人类能够理解决策原因的程度。机器学习模型的可解释性越高,人们就越容易理解为什么做出某些决定或预测。模型可解释性指对模型内部机制的理解以及对模型结果的理解。其重要性体现在:建模阶段,辅助开发人员理解模型,进行模型的对比选择,必要时优化调整模型;在投入运行阶段,向业务方解释模型的内部机制,对模型结果进行解释。比如基金推荐模型,需要解释:为何为这个用户推荐某支基金。
在过去的几十年里,机器学习模型在各种现实世界任务上的性能有了显着提高。然而,训练和实施这些模型中的大多数仍然需要大量的能量和计算能力。
“原来我们说床位、建筑、设备是医院的基础设施,现在,人才、科技和信息化才是医院新的基础设施,而且是更重要的设施。”浙江省卫生健康委书记、主任张平,在智慧医院创新发展大会上讲道。信息化、智能化、智慧化已经成为医院发展、创新、提升品质的关键驱动力,成为医院生产力和核心竞争力的重要组成部分。