AI &物联网在医疗保健中的应用:在IoT WorldCongress 2019上学习的三大教训

两周前,我参观了2019年的IoT WorldCongress。 至31 10月在巴塞罗那举行。在我即将参加的第一届AI相关大会上,我对此感到非常兴奋。我是每天站在AI和医疗保健相交处的专业人士之一,而且每天如此。换句话说,我的工作是将AI的功能应用于医疗保健数据,以便患者在治疗过程中获得更好的体验和结果。根据我的情况,很明显,IoT WorldCongress具有针对医疗保健和AI的特定轨道&其他人之间的认知系统论坛将是一个非常有趣的活动。

不出所料,我对会议的内容不感到失望。本文将无法详细解释大会期间提出的所有很酷的想法,因此,我将重点介绍与AI有关的当前和未来以及医疗保健方面的三大建议。

“自我量化”的承诺

如今几乎每个人 使用以某种方式连接到网络的设备,以及这些设备之间的 可穿戴设备占据着非常强大的位置。不断控制我们的活动 水平,我们的睡眠时间和质量,甚至在某些情况下,我们的心律, 不言而喻,它们是有关我们健康状况的宝贵数据来源。

这是关于将使用多少设备并将其作为物联网的一部分的惊人预见

善用这个泉源 数据方面,一些发言者提出了基于app的系统来实现远程 跟进患者。从患者的角度来看,这将打开一个 与他们的医生快速方便地联系 医学专家,它将连续报告患者的 evolution. 

具体而言,HealthITcare公司与巴塞罗那的瓦莱德希伯伦公立医院之间的合作在这方面很重要。这项针对特定对象的实施以精神卫生部门的患者为重点,为AI和IoT如何改善患者和家庭的生活质量提供了一个很好的例子。

精神障碍患者 通常只会在发生危机期间或之后去看医生,这使得 该处理方法只能处理当前下降的后果 患者的健康。如此次合作所示,24/7 通过可穿戴设备和数字设备监控患者的生命 表型(通过电话收集有关他们行为的信息) 甚至可以帮助预防此类危机。此信息由他们自己收集 设计的应用程序被匿名化,发送到他们的云中,并提供给ML算法 经过培训可以生成患者当前健康状况的报告。的 临床医生会收到这份已经整理好的报告,如果出现这种情况,可以立即采取行动 necessary.

演示HumanITcare与Vall d合作项目的幻灯片’Hebrón

物联网的这种实现 结合AI已经发生,向我们展示了这种技术的巨大潜力 通过个性化和 预防(不仅仅是反应)是其新目标。 

通过用户自己的数据重新获得用户的权力

如果你 是一位数据科学家,您知道获取所需数据的艰辛 对你的调查是很真实的。没有数据,人工智能和机器学习就什么也不是。

在 医疗保健,患者是这些数据的来源,传统上是 聚集在他们倾向于去的医院/诊所。该数据是 必须由患者提供,以便可以对其进行护理,甚至以后 可以由医疗中心的研究人员及时地进行 观察性研究或训练预测模型。访问此信息, 在任何情况下,都受到法律的保护,以保护患者的隐私。

不过,如今,通过手机的应用程序(通过可穿戴设备或手动方式)引入了有关此应用程序或健康的大量信息,除了传统数据外,还有新的医疗数据输入。尽管大多数情况下用户不会考虑,但在某些情况下可以将这些数据出售给第三方以进行自己的研究。这并不是什么新鲜事,诸如围绕着著名的Facebook事件引起的轩然大波之类的事件表明了用户隐私的重要性,而某些公司对我们数据的利用却不是那么好。此处的区别在于,我们谈论的是健康数据,它可能更加微妙,而且法律所保护的数据不如在诊所环境中生成的数据好。

制药公司首席执行官Zain Rana在演讲中。

在这种情况下,我认为,Pharmeum首席执行官Zain Rana的讲话非常有道理。正如我之前提到的,有时您的数据是某人的收入来源,而您却一分钱也得不到。那么,为什么不随心所欲地出售它并得到一些回报呢?这就是Pharmeum所提供的,在我看来是天才。基于私有区块链的应用程序为用户和研究人员提供了连接的平台。用户可以控制自己的数据,并在应用程序开发人员每次使用时获得PHRM硬币。因此,这个想法是一种一次性解决两个问题的有效方法:研究人员轻松访问数据,并为用户重新获得自己的健康数据。

拥有权利的同时也被赋予了重大的责任

心爱的斯坦·李(Stan Lee)的这句话似乎是每位发表有关AI伦理学演讲的演讲者的共同口头禅。它就在现场。数据科学家的常识是,开发算法的一大障碍在于我们的数据集可能存在的偏差。正如埃森哲实验室首席研究员Edy Liongosari所说,人工智能可以加剧人类的偏见。

有时候可以 正如小组讨论的那样,纠正这些偏差非常困难 在Liongosari先生发表有关负责任的AI的演讲之后。但这实际上是 非常重要,尤其是在医疗保健领域,我们尽力 we can to avoid it.

面板“部署AI的道德与社会责任”

最近发表在《科学》杂志上的一项研究探讨了一个为什么我们应该这样做的很好的例子。 科学 今年10月,由加州大学伯克利分校的研究人员进行。结果表明,美国许多医院使用的算法存在严重偏见,如果被转介到更密集的医疗保健计划中,则会歧视黑人。

通过算法放大了数据集中的偏见,这导致一小部分人口无法获得适当的疾病治疗。这是完全不能接受的。而且,即使正在修订此特定算法以纠正偏差,作为医疗保健领域的数据科学家,我们也必须始终保持警惕和谨慎态度,以免发生这种情况。

贡献者

人工智能博士生/高级胚胎学家

贡献者表达的观点是他们自己的观点。

关于努里亚·科雷亚

人工智能博士生/高级胚胎学家

查看Nuria Correa发表的所有帖子→