难了!
因为他在米国这么多年,其实主要干的就是这部分的工作。
其实早年达芬奇手术机器人的出品公司,直觉外科公司,就是和mit合作的。
手术机器人的软件和硬件开发,其实有很多一部分都是mit的团队帮这家公司完成的。
而黄海冰在mit的时候,参加过的几个软件开发项目组,其实就是帮助直觉外科公司完善达芬奇的操作系统的。
所以在这方面,他有着非常丰富的经验。
再后来他去了硅谷,加盟谷歌之后,在谷歌的医疗服务部门,又参加了谷歌主导的医疗机器人的硬件开发。
正是在硬件机械臂方面他有绕开米国人专利的方案,而且在系统设计方面,他也完全可以独立设计一套出来。
所以黄海滨对自己攒出一台手术机器人来,就更是多了几分胜算!
不过现在说起制约他的最后一道难题,那就是手术机器人3d成像问题了。
也就是手术导航技术!
而这套技术,可以说就是手术机器人的控制系统的起始关键步骤!
说的直白一点,就是在手术的时候,如何能让手术机器人的机械臂,准确的抵达术区。
要知道以往医生手工作业的时候,因为可以直接在病人肚子上开刀,把术野直接暴露出来。
所以就可以很容易的找到病人的患病部位,进行接下来的操作。
可使用手术机器人就不一样了,因为这种设备的原理,就是智能内窥镜手术。
说白了就是不开刀,在病人肚子上打孔,然后把机械臂伸进去,直接抵达病人的患病部位,展开手术。
可问题是每个人的肚子里面内脏长得大小,形状都是不一样的。
而你的机械臂探入进去之后,如何能避开那些关键的要害部位,不破坏血管,然后准确的抵达手术区域,这就是一个大难题。
毕竟机械臂可不像人手一样,可软可硬,这玩意就是硬邦邦的金属。
如果一个路线走错了,你可能就直接把病人怼一个肝脏破裂,到时候手术还没开始,病人就挂掉了。
所以这时候就需要手术导航技术登场了!
其实这套技术原理也很简单,就是使用手术机器人手术之前,医院要给病人拍摄各种射线照片。
从x光,到ct,再到pet,又或者是mri,你全都得来一遍。
然后专门的医生,会根据这些不同的透视图片,来进行3d建模造型。
然后把病人病患处的3d造型,在主操作台的电脑里成像。
要求成像还原的比例,那必须是百分之一百的。
然后造型建模成功之后,医生会在手术之前,操作机器人,在模拟环境下,对手术路径进行模拟实验。
比如机械臂进入的角度,深度,以及机械臂末端停在什么位置,然后锁死机械臂等等。
在手术之前都要进行多次练习,一直到熟练位置。
进行多次练习之后,医生们找到手感,才会展开手术。
而这时手术的成功几率,就已经从原来的可能百分之五十不到,提升到了百分之八十,甚至更多。
而这也正是,手术机器人给人做手术,价格非常昂贵的一个主要原因。
因为几乎所有的高价成像设备你都要来一遍,才能完成3d建模的工作。
而这方面,其实咱们也同样是比较弱的,因为3d建模,可是需要一套非常牛掰的软件工具的。
而这方面,却同样是咱们最缺失的技术。
不过在第九实验室,这却根本就不是问题,因为咱们刚好就有自助体检中心,那里面的3d透视成像设备,可是黄海滨见过最牛掰的……
而也正是因为这套3d透视成像设备,才是黄海滨辞掉米国那边的工作,转头加盟第九实验室的一个重要