网上有关“ai最新消息发现抗生素”话题很是火热,小编也是针对ai最新消息发现抗生素寻找了一些与之相关的一些信息进行分析,如果能碰巧解决你现在面临的问题,希望能够帮助到您。
华为开发者大会2023上,华为就狠狠的秀了一把,将近三个小时的发布会总结下来,其实也就突出了一个主题,盘古大模型3.0的发布。
华为常务董事、华为云CEO张平安说:“盘古大模型是一个面向行业的大模型系列。要让每个行业、每个企业、每个人都拥有自己的专家助手,让工作更高效更轻松。”
盘古大模型3.0到底是什么?
不得不说,在一众花里胡哨、掌声雷动的人工智能企业里,也只有华为是人间清醒。首先定位目前的人工智能本质就是超级算力,而不是什么思考和学习。盘古大模型的基础逻辑不是创新,也不是学习,而是整合和优化,从而实现外数的提升和纠错。通过华为自有的庞大的数据库以及各行业积累的数据,经过整合后形成更好的、更有效率行业生产方式,从而帮助行业客户提升产业效率。
用简单通俗的话来说,盘古大模型的定位就是标准化生产管理的编撰工具,可以帮助大多数行业企业实现标准化生产管理,并实现自动迭代,从而确保完全能够符合企业的生产和发展需要。
而超级算力和庞大的数据库实现的就是纠错的能力。以前企业制定标准化生产管理办法时候,需要通过很长的时间来进行纠错和调整,浪费时间和金钱,很多企业因为没有能够及时调整,陷入了经营的危机,甚至关门倒闭。
现在通过盘古大模型,时间的消耗以毫秒计,庞大的数据库储存着大量的案例,最大程度确保不会出错,这样就为企业节约了大量的时间和金钱,从而达到提升企业效率的目的。
华为的这个盘古大模型,它究竟有什么独特之处呢?
1、不是单纯的发布模型,连同应用案例一并都发布了。
华为在国内经营这么多年,已经在各行各业积累了大量的落地的信息化,智慧化的案例,现在有了盘古可以说是如虎添翼,只要能够找到合适的场景,在自己原有的智慧化的产品基础之上,盘古的能力一植入,立刻就有了落地的场景。所以这次的发布,不是单纯的发布模型,连同政务、制造业、铁路、金融、气象行业的具体的应用案例一并都发布了。
2、硬件软件都是咱华为自己,底层的操作系统核心全部都掌握在自己手里。
由于众所周知的原因,华为在硬件在软件上都受到了很多的限制,这样就逼着华为不得不从头做起,软件硬件都要一手抓,但是正所谓福祸相宜,软件硬件算法算力都自己搞的,好处就是集成度更高,配合度也更高,就像苹果手机一样,软件硬件都是自己搞,所以它虽然看起来硬件参数比不上那些安卓的顶级手机,但是用起来就是更流畅。
那么华为的升腾AI芯片是自己的,支持AI全站跟技术的升腾云底座也是自己的,易构的计算架构看也是自己的,全场景I框架也是自己的,以及AI的开发生产线model这些都是他自己的。据说整体的表现现在还不错,并不比那些主流的GPU算力平台差,而且,华为现在这些不光是自己用,它也已经开放出来,可以给其他的AI企业去使用AI的大模型,就像是互联网、移动互联网一样,是一个新时代的底层操作系统,把这个底层的操作系统核心全部都掌握在自己手里边,那么这反而可能是一件好事情,
使用这个盘古大模型3.0到底会带来什么?
这个如果说科学术语的话,我可能也说不明白,你可能也听不懂。咱就举例子吧。据说加入了盘古大模型,气象预测的速度提高了1万倍以上,几秒钟就能出结果,台风从哪来,几点来,啥时候走都能给预测的明明白白的,这波操作让天气预报又上了一个新的level。
华为这次的发布会可不止带来了气象预测模型这一个角色,40多年都没发现新的抗生素,盘古药物分子大模型以来,就找着了超级抗菌药drug?X,而且药物的研发周期从数年缩短至几个月,研发成本降低70%,盘古矿山大模型也能深入到采煤的1000多个工序之中。
发布会上,华为云人工智能首席科学家田琪就表示,华为云人工智能项目已经应用在了超过1000个项目,正是这种结构让盘古能够快速落地到各个行业里。根据他们的说法,过去开发一个GPT3规模的行业大模型通常需要五个月,而有了这套东西,开发周期能缩短至原来的1/5。同时,很多行业数据极小的限制也能被解决,比如造大飞机这种很细很细的行业也能有大模型。
总的来说,一场华为发布会看下来,华为在AI方面的布局是很深刻的,他们早就开始思考AI真正能带给我们什么这个问题了。过去半年里,AI行业虽然掌声雷动,但是真正落到行业层面多少有些尴尬。而华为的这一次动作,恰好印证了如任正非说的,未来在AI大模型方面会风起云涌的不只是微软一家人工智能软件平台公司,AI领域真正的大时代还在后头。
AI也有偏见,我们该如何信任它们?
12月19日,由中关村生命科学园与角井(北京)生物技术有限公司共同发起建设的中关村AI新药研发平台在北京中关村生命科学园举办落成典礼。该平台于2020年12月正式开始筹建,将利用人工智能技术帮助制药企业快速进行药物靶点发现和筛选、药物作用机制 探索 、特异性抗体优化等工作,成为生物医药企业新药研发的AI“参谋”,为药物研发处理海量医疗数据。
“ 历史 上,生物医药的研发经历过几次重大的范式变革。”角井生物创始人周一鸣博士介绍,最早人类利用天然产物对抗疾病,这一阶段我们的中医中药达到了很高的成就,典型代表如青蒿素,挽救了无数人的生命;第二个时代是化学合成时代,针对天然活性分子进行筛选和改构,抗生素的研发是该阶段最经典的成就;第三个时代是生物制药时代,针对特定生物效应靶点进行药物的筛选和设计,典型代表如靶向药物的研发。
最近十几年来,随着多种高通量检测技术的突破,基因组、转录组、蛋白组等数据量呈现指数级增长,已经远超传统统计方法的分析能力,同时,近年来人工智能技术也有了突飞猛进的发展。“采用人工智能技术,有能力基于更强大的算法和算力来处理海量医疗数据,因此我们认为创新药物的研发已经进入了以数据和计算为基础的智能开发时代,为人类带来全新的药物和疾病治疗方案。”周一鸣说。
中关村AI新药研发平台正是抓住此次 历史 性变革的契机,建立了包含高性能计算中心、高通量自动化设备、药物验证实验室等功能模块的一体化研发平台,能够实现从数据生成到算法训练,再到实验验证的药物发现全流程工作。同时,平台也与多家国家级医疗数据中心、知名三甲医院和高校展开合作,共同进行基于海量医疗数据的药物开发。
作为平台的运营方,角井生物组建了一支经验丰富的专业团队,团队由国际统计界最高奖“考普斯奖”获得者、美国哈佛大学统计系教授刘军和原“863”生物医学大数据首席科学家周一鸣领衔,并包含国际知名AI算法科学家、数据科学家、抗体研发专家、资深商务负责人等,将为新药研发企业提供优质技术、产品和服务,助力更多创新药诞生。
对于平台的落户,中关村生命科学园总经理王文礼表示,这将进一步丰富生命科学园的产业要素,提升自主创新能力。目前,园区已经成为国内一流的生命科学研发和产业聚集区,形成以基础研究为核心,研发中试、生产流通、临床应用的完整产业链。在基础研究方面,北京生命科学研究所、北京脑科学与类脑研究中心、国家蛋白质工程中心、生物芯片北京国家工程中心等一批国际知名的科研机构已陆续落地。在研发中试方面,保诺 科技 、康龙化成等为生物制药项目提供一体化药物研发、中试生产服务,聚集了百济神州、诺诚健华等国内外知名创新药企。在临床应用方面,布局了北京大学国际医院、北京大学第六医院等超过3000个床位的医疗资源。
1970年,爱德华?肖特利夫(Edward H. Shortliffe)在斯坦福大学的实验室里开始着手编写一个Lisp程序。这个名为MYCIN的系统通过一系列的是非问题帮助医生判断病人是否患有遗传性血液疾病,并根据病人体重建议抗生素用量。作为历史上最早的专家系统之一,MYCIN的正确率仅为65%,相较血液科医师80%的正确率相去甚远,而且由于程序过于庞大,最终也没有投入使用。
2019年,150名受试者来到UCLA的VCLA中心,观看Baxter机器人打开附有安全锁的药瓶。随后,Baxter向其中一些受试者解释了自己是如何打开药瓶的,剩下的人没有得到任何解释。最后,实验者向所有人提问:你在多大程度上相信这个机器人会开药瓶?
在过去的半个世纪里,机器的计算与储存能力突飞猛进,我们可以轻松地在计算机上运行像MYCIN一样相对简单的系统,甚至可以训练深度神经网络、支持向量机(Support Vector Machine)等更加复杂的模型达到接近专业医生的诊断水平,或是让机器人完成相对复杂的精细动作。
但是,AI系统的性能提升也带来了新的问题:如果这些系统进入我们的生活,你会信任它们作出的决定吗?
为何要解释AI?
AI如日中天,我们为什么要停下来思考怎么解释它?
2016年5月,ProPublica发布了一篇名为《机器偏见》的调查报告,聚焦一个名为COMPAS的AI系统。COMPAS被广泛应用于美国司法量刑。它基于已有的犯罪记录,尝试预测被告被再次逮捕的概率,得出一个1到10分之间的分数?分数越高,它建议的量刑越重,以期更有效地惩治潜在的再犯。
ProPublica分析了18000多人的COMPAS分数和犯罪记录,发现黑人与白人的分数分布明显不同?在犯罪历史、再逮捕记录、年龄、性别都相同的条件下,黑人被告得到更高COMPAS分数的概率高于白人被告45%。另外,有48%在两年内被再次逮捕的白人被告的COMPAS分数被低估,几乎是黑人被告的两倍。因为数据来自具有结构性不公的环境(既有司法系统倾向于区别对待不同人种),COMPAS的(草率)决定也受此影响。然而,由于COMPAS是一个黑箱系统,法官只能看到分数,对内部的决策机制一无所知,导致他们无法有效评估系统的建议。另一篇调查报告更是指出,COMPAS的准确率相当于几乎没有刑事司法专业知识的人。
无独有偶,2015年,有用户发现谷歌的图像识别系统将自己的黑人朋友标记为?大猩猩?,在推特上引起轩然大波。直到2018年,谷歌仍然没有完全修复这一漏洞,只是将灵长类的标签从系统中移除,并称?图像识别技术还不成熟?。同样是2015年,纽约西奈山医院用70万病人的数据训练了一个名为?深度病人?的深度神经网络,用以辅助医疗诊断。?深度病人?对精神分裂症的预测出乎意料地准确,但没有医生知道为什么,自然也无法应用于自己的临床诊断;当它被用于分析医院以外的X光片时,系统正确率莫名出现了大幅下降。
数据不会说谎。?但这绝不意味着我们不需要仔细审视它们,或是给予基于数据之上的AI系统无条件的信任。肖特利夫的MYCIN系统本质上是一个决策树,属于?透明?的模型?我们可以画出从数据输入开始完整的决策过程,从而评估MYCIN的决定。深度神经网络的性能远远优于决策树,但它是一个?黑箱我们几乎不可能确切地知道它在算什么。性能与可解释性似乎此消彼长。对一位只追求正确率和性能的算法工程师来说,黑箱AI未必不受待见:一个能够准确预测95%的事件的黑箱系统,肯定比另一个正确率只有65%、更透明的系统好。可是,当工程师需要调整系统内部?零件?的时候(比如修复谷歌图像识别系统),黑箱会让这项任务无比艰难:到底是哪一步出错了?是用于训练的数据有问题,还是模型本身的性能不足,或是损失函数(loss function)有待改进?置身黑箱之外的工程师很难一针见血地指出病灶。
我们中的大多数人也许极少有机会成为工程师、法官、医生,但这不妨碍黑箱AI对我们的生活造成影响。与我们的一厢情愿相反,不够透明的AI系统非但没有比人类更客观、公正、精确,反而加深了既存的偏见和不公正,对数字民主和基本人权构成威胁,而对这些系统的控制、介入和审计也更为困难。当我们无法解读AI作出的决策,对它未来的预期不过是纸上谈兵,信任也无从谈起。
可解释AI(Explainable AI,即XAI)想要解决的正是这类问题。XAI认为,通过解释AI系统的决策过程,人类能够更好地理解它的机制、优缺点、潜在影响等特性,从而更有效地预测系统的行为,达到逐步建立信任关系的效果。如果AI革命不可避免,至少一个可被解释的系统能够更好地融入崭新的算法社会契约?例如伊亚德?拉万(Iyad Rahwan)提出的社会回环(Society-in-the-loop)?与人类共生存,而不必成为敌对的关系。
我需要一个解释
可解释AI终究是为人服务的(好比高阶编程语言是为了人类设计的,否则机器之间的?交流?大可以用机器编码之类人类无法轻易读写的?语言?)。所以?解释性?也是相对人而言的。关于黑箱AI系统,什么样的解释才是好的解释?心理学家和哲学家早就开始分头研究,但各执一词。
解释常常需要阐述特定的因果关系或因果模式,例如?我不吃杏仁,因为我对坚果过敏?。这样的解释非常贴切(没有转移话题),直接明了(不存在循环论证),逻辑严密。有的现象却很难用通俗的因果关系解释?请试着回答,?我掷了一次骰子,为什么朝上的一面是3??当然,你可以引用物理法则来解释掷骰子的具体过程,但我可能一头雾水。为了避免这样的尴尬,你也许会提及相关的(非因果的)概念,比如?随机性?,或是用类比等手法让你的解释更容易被听众接受(比如上一段的第一句话)。一般而言,因果关系在解释中占据不可动摇的地位,但不是唯一的手段。
既然解释本身可以有各种形式,为了筛选出最好的可解释AI,我们为什么不直接问:你理解这个系统在做什么吗?相关的心理学研究也的确使用了类似的方法来推断人们是否能够通过描述性解释理解某一概念。它们发现,客观上,当受试者对某一概念有更好的理解时,他们能通过主观的直觉感觉到自己的认知进步,好比?茅塞顿开?。
然而,耶鲁大学的列昂尼德?罗森布里特(Leonid Rozenblit)和弗兰克?凯尔(Frank Keil)提出的?解释深度的错觉?(Illusion of Explanatory Depth)仿佛当头一棒。罗森布里特和凯尔让受试者首先评价自己对某一工具(比如拉链)的理解,然后详细地解释这个工具的工作机制,并再次评价自己的对它的理解。他们发现,相比一开始,试图解释后的受试者对自己理解的评价明显下滑,仿佛突然意识到自己其实一知半解。这就是?解释深度的错觉?。这种错觉影响着所有人(包括小孩子),并且只作用于解释性的知识。完全相反的情况也不少见:人们会自称不理解一个动力系统,却能熟练地使用它。
另一方面,规范(normative)解释在哲学(尤其是科学哲学)中发扬光大。规范解释有意忽略个人因素,比如认知能力,而是关注?应有?的理解。因此,规范理解可以被视为一种基准,用来分析哪些信息应当被包含在解释里,以及受众会有何种程度的理解。更进一步地说,好的(规范)解释应当从理解的目的出发,基于受众与黑箱AI的关系给出不同的解释。显然,修补系统漏洞的工程师和审核系统公正性的法官所需的理解是不同的。我们可以合理假设前者具有足够的技术知识背景,也许将计算模型可视化就提供了足够好的解释。后者需要的是更抽象的文字解释,比如?其他条件不变,COMPAS系统预测黑人被告和白人被告被再次逮捕的概率不同。?两种都是好的(规范)解释,一旦互换却可能成为各自的鸡肋。
规范解释看似更加直截了当,但在实际应用中还没有确切实现或评估的共识。描述性解释似乎也不甚完美。时至今日,我们仍未整合描述性解释和规范解释,关于解释的研究和可解释AI还在齐头并进。
有了可解释的AI就万事大吉吗?
2017年开始,美国国防高级研究计划署(DARPA)投资了一系列XAI的项目,包括UCLA的VCLA中心的研究项目。2018年,ACM主办了第一届FAT*会议,关注AI系统的公正性、问责制和透明度。同年,AAAI与ACM共同举办第一届AIES(人工智能、伦理与社会)会议。谷歌、微软等科技公司也陆续参与XAI的研发。各界对于XAI的关注促成了许多?拆穿?黑箱AI的尝试,从DeepMind提出的机器心智理论(Machine Theory of Mind),到将黑箱神经网络转化为?透明?的布尔电路(Boolean circuit),再到LIME(Local Interpretable Model-Agnostic Explanation)等通过近似黑箱模型提取重要特征的方法。虽然XAI目前解释的对象主要是工程师等研发人员,但是在未来,我们将会看到更多面向大众的XAI,比如向你解释如何开药瓶的Baxter。
XAI并不是终点;它最多算一个起点,而我们还有许多亟待解决的问题。首先,对黑箱AI的解释可以被悄无声息地篡改,可以完全牛头不对马嘴,而且很难察觉。哈佛大学的希玛宾度?拉卡拉朱(Himabindu Lakkaraju)和她的学生们发现,只需在模型上动一些简单的手脚,就能让它滥用COMPAS数据集里的种族信息决定量刑,但一旦LIME来?视察?,它立刻摆出无辜的嘴脸,完全不露馅。这就意味着,即使有XAI为工具,我们对AI的信任也不应当盲目地依赖系统的可靠性和(表面上)信息的透明性,理智与批判性思考将格外重要。
其次,针对AI的条例的制定相对滞后于研发和应用。XAI的出现将会让这个问题更加复杂?由于黑箱AI难以捉摸,且只有少数人具备解读/修改的能力,研发机构不必过分担心自己的科研成果泄漏(除非算法模型被一锅端)。如果面向用户和公众的解释成为需求、甚至必须,既有的AI系统?无论透明与否?都有可能面临一系列的风险,包括知识产权(利用反向工程重建系统)和系统安全(恶意的对抗攻击)。信任与保密两者的张力之下,XAI应当提供的解释的具体内容尚无定论。
再者,偏见和不公不会因为解释本身而消失;恰恰相反,解释会暴露更多一直以来潜行在我们周围的伦理问题。ProPublica对COMPAS的调查使人不禁发出疑问:系统性的种族偏见究竟在何种程度上渗透了美国过去十年间的量刑?随着XAI的进步,一个个黑箱AI的庐山真面目逐渐显露在我们眼前,不难想象其中有像COMPAS一样的?帮凶?。我们能否通过公开讨论解决结构性问题、完善问责制,这将是对AI和人类社会共同的挑战。
关于“ai最新消息发现抗生素”这个话题的介绍,今天小编就给大家分享完了,如果对你有所帮助请保持对本站的关注!
本文来自作者[凡亦]投稿,不代表鑫泰和立场,如若转载,请注明出处:https://xintaihe.cn/zlan/202501-365.html
评论列表(4条)
我是鑫泰和的签约作者“凡亦”!
希望本篇文章《ai最新消息发现抗生素》能对你有所帮助!
本站[鑫泰和]内容主要涵盖:生活百科,小常识,生活小窍门,知识分享
本文概览:网上有关“ai最新消息发现抗生素”话题很是火热,小编也是针对ai最新消息发现抗生素寻找了一些与之相关的一些信息进行分析,如果能碰巧解决你现在面临的问题,希望能够帮助到您。华为开...