AI &IOT在医疗保健:2019年IOT WorldCongray中学到的前三项经验教训

两周前,我访问了2019年的IOT WorldCongray,从28岁开始TH. to the 31英石 10月在巴塞罗那。作为我的第一个相关国会,我将参加,我对此感到非常兴奋。我是其中一个,每天都要,很少有专业人士站在AI和医疗保健之间的交叉路口。换句话说,我的工作是将AI的力量应用于医疗保健数据,因此患者在治疗过程中获得更好的经验和结果。作为我的背景,很明显,IOT WorldCongress,具有特定的医疗保健和AI的轨道&其他人之间的认知系统论坛将是一个非常有趣的事件。

正如预期的那样,我不会被会议的内容放下。本文在本文中将不可能详细解释国会期间暴露的所有很酷的想法,所以相反,我将突出顶部的3个外卖,这表达了关于AI和IOT的当前和未来的关于医疗保健的目前和未来。

“量化Thyself”的承诺

现在几乎所有人 使用以某种方式连接的设备到网,以及这些设备之间 可穿戴设备持有一个强大的地方。控制我们的活动 水平,我们的睡眠时间和质量,甚至在某些情况下我们的心比, 很简单地是关于我们健康的宝贵数据来源。

这是一个壮观的预防,将使用多少设备,并且将成为物联网的一部分

为了充分利用这个温泉 数据,几个扬声器提出了基于应用的系统来实现远程 跟进患者。从患者的角度来看,这将打开一个 快速且易于到医生的联系点,而为此 医疗专家将渲染患者的连续报告 evolution. 

具体而言,公司HealthitCare和巴塞罗那的Vall D'Hebrón公立医院之间的合作在这方面取得了很大的观点。专注于精神卫生部门的患者,这种具体实施使得AI和IOT如何提高患者和家庭的生活质量的优秀典范。

精神挑战的患者 通常只会在危机期间或之后去看医生,这是胜任 治疗只能处理当前下降的后果 患者的健康。如本协作所表明,24/7 通过可穿戴物和数字监测患者的维生物 表型(信息在手机上的活动中收集了他们的行为) 有助于防止这种危机。这个信息由自己收集 设计的应用程序是匿名的,发送到他们的云并馈送到ML算法 培训以产生患者目前健康状况的报告。这 临床医生接收了这个已经治疗的报告,可以立即采取行动 necessary.

从人科技和Vall D之间的协作项目演示幻灯片’Hebrón

IOT的这种实现 与AI的结合已经发生过展示了我们这个巨大的潜力 联盟有利于新的药物形式,具有个性化和 预防(不仅仅是反应)作为其新目标。 

通过自己的数据返回给用户的权力

如果你 是一个数据科学家,你知道让您需要的数据的斗争 因为你的调查非常真实。没有数据,ai和ml都没有。

在 医疗保健,患者是这种数据的来源,传统上是 收集在医院/诊所,他们倾向于。这个数据是 必然由患者提供,因此可以照顾,并且可能以后 及时可以通过医疗中心的调查人员使用 观察性研究或培训预测模型。访问此信息, 无论如何,由法律规范,保护患者的隐私。

如今,通过对我们的电话的应用(通过可穿戴物或手动介绍它或健康的许多信息,除了传统的数据之外,还有新的医疗数据输入。虽然用户的大部分时间都不会想到它,但在某些情况下,这种数据可以是并被销售给第三方,以制定自己的研究。这不是什么新的,而且在众所周知的Facebook事件周围的哗然这样的事件显示了用户隐私的重要性,而且一些公司可以制造我们的数据。这里的不同之处在于我们正在谈论健康数据,这可能更加细腻,并且不受法律保护的,因为临床环境中产生的那个。

Zain Rana,Pharmeum首席执行官,在他的演讲中。

在这方面,Pharmeum首席执行官Zain Rana的演讲,在我看来,在我看来,是一个非常有效的观点。正如我之前提到的那样,有时你的数据是某人的收入来源,你没有得到一分钱。那么,为什么不愿意和故意卖给它并换取交换的东西?这就是药物优惠,在我看来是天才。基于私有区块链的应用程序为用户和研究人员提供了连接的平台为用户提供连接。用户每次使用App Developers使用它时,用户都拥有自己的数据并获得PHRM硬币。然后,此想法是一个有效的方法来解决两个问题:通过研究人员轻松访问数据,并返回对用户自身的健康数据。

拥有权利的同时也被赋予了重大的责任

这句话由心爱的斯坦·李似乎是一个常见的口头禅,每个发言者都在发表歌剧院讲话。它只是现场。围绕数据科学家们常见的知识,在开发算法中的一个大障碍是我们数据集可以拥有的偏差。作为埃森里实验室的首席研究科学家Edy Liongosari表示,AI可以扩大人类偏见。

有时它可以 非常难以纠正这些偏见,因为它在小组中讨论了 遵循Liongosari先生关于负责任AI的讲话。但它实际上是 非常重要,特别是在医疗保健领域,我们尽可能多地尝试 we can to avoid it.

控制板“部署AI的伦理和社会责任”

一个非常好的例子,为什么我们应该在最近发表的研究中探讨 科学 今年10月由加利福尼亚大学伯克利的研究人员。它表明,美国许多医院使用的算法严重偏见,歧视黑人在被提及更密集的医疗保健方案时。

数据集中的偏差,由算法放大,从而导致人口的一个部门,不接受其疾病的充分治疗。这只是不可接受的。即使正在修改这个特定算法以纠正偏差,我们,我们作为专注于医疗保健的数据科学家,必须始终警惕并小心不创建这种情况。

贡献者

AI /高级胚胎学家的博士学位

贡献者表达的意见是他们自己的意见。

关于Nuria Correa

AI /高级胚胎学家的博士学位

查看Nuria Correa的所有帖子→