新2手机登录地址 新2手机登录地址 新2手机登录地址

任正非:全社会对新技术要包容信任

现在的科技可以预测地震吗_磁铁带铁块可以预测地震?_地震可以提前预测吗

科技向善周刊由腾讯研究院编制。每周在全网整理最新的科技向善新闻、观点和实用产品,为向善的科技探索注入新的燃料。

本周,谁在谈论永远的技术?

PingWest品玩创始人兼CEO罗一航:技术背后有价值观,应该是永远的。

9月22日,PingWest品玩与硅谷之星在硅谷山景城举办了以“科技向善”为主题的第七届SYNC技术峰会。

PingWest品玩创始人兼CEO罗一航在致辞中表示:技术背后有价值观,应该是向善的。而只有在向善的情况下,难以量化和计数的技术创新的价值才是正的。如果技术不好,即使是已经反映在统计指标中的技术价值也会被削弱。这就是为什么本次峰会的主题是“科技向善”。

SYNC邀请了高通、腾讯云、谷歌、甲骨文、IBM、LinkedIn、亚马逊(AWS)等科技公司的高管和科学家,分享各自领域最前沿的技术发展,并提出推广可行性科技造福社会。方法。

高通5G研发负责人季廷芳博士表示,未来工厂、自动化交通、远程医疗都将因5G而获得新的发展。LinkedIn数据科学负责人徐亚表示,LinkedIn从大数据中解读职场信息,弥合肤色、性别、教育背景等不平等,为求职者提供更公平的职业发展机会。

大会特邀嘉宾亨利·埃文斯用自己的故事解释了“科技向善”。他原本是硅谷一家科技公司的首席财务官,但疾病让他变成了瘫痪的哑巴。此后,他与企业和高校合作,开发了一系列可供残疾人使用的机器人,并用自己的力量推动科技进步。

——《PingWest品玩“SYNC”硅谷峰会,推动科技向善》来源:新浪科技

本周谁练习了技术?

人工智能帮助地震学家预测地震

地球物理学家保罗·约翰逊(Paul Johnson)等学者于 9 月 15 日在网站 arxiv 上发表论文称,通过机器学习,可以预测太平洋西北地区的慢地震。约翰逊说,该算法能够更早地预测慢地震的发生。

当约翰逊在研究“实验室地震”时,他和他的同事记录了粘滑现象中的声波,他们注意到每次滑倒发生之前都有一个尖峰。但他们无法将这些前兆事件转化为对实验室地震的可靠预测。

然后,该团队尝试使用机器学习重新分析数据,主要是将包含 20 个粘滑循环的音频切割成许多小片段。在统计了每个片段的 80 多个特征后,研究人员使用“随机森林”机器算法系统地搜索与实验室地震强相关的因素,发现该算法最依赖于声音信号的方差。因此,该算法可用于对何时会发生滑点做出合理的猜测。

在对 2007 年至 2013 年的数据进行训练后,该算法能够根据每个事件前几个月记录的数据对 2013 年至 2018 年之间发生的慢滑进行预测。

论文信息:“在卡斯卡迪亚俯冲带缓慢滑动破坏之前,地震能量的无声积累”

——《人工智能帮助地震学家预测地震》来自:

人工智能帮助亚马逊水电减少碳足迹

最近,康奈尔大学领导的一个团队开发了一种算法,该算法利用人工智能在亚马逊流域寻找合适的水电大坝建设地点,以减少温室气体排放。

他们指出,虽然与风能和太阳能类似,水电大坝可以提供大量能源,但碳排放量较少,但由于选址等因素,水电大坝产生的温室气体排放量最低和最高。差异超过两个数量级。

博士后研究员Rafael Almeida在9月19日发表于《自然通讯》的文章中指出,如果不规划大坝,未来将难以应对大坝发电和温室气体排放等问题。使用该模型,研究人员想出了如何选择一个在保持电力输出的同时产生最少温室气体的地点。分析结果表明,与低洼地区相比,在高海拔地区修建水坝每单位输出功率排放的温室气体更少。

利用计算机技术,这项研究可以帮助南美政府和组织在平衡能源使用和环境保护之间取得相对平衡。

——“人工智能有助于减少亚马逊水电大坝的碳足迹”来自:

大数据精准扶贫,让贫困学生更有尊严

近日,西安电子科技大学通过其自主研发的大数据平台,对2018年学生在校刷卡数据进行分析,发现每月在食堂就餐60次以上且餐食低于50%的学生。平均每天8元用于资助。. 按照每天6元的补贴标准,每学期720元的伙食费已经悄然进入部分学生的伙食卡。

利用大数据“无形补贴”学生,既可以解决部分贫困学生的生活压力,又可以维护他们的尊严。同时,也避免了申请贫困生的一系列繁琐程序和防止欺诈的问题。

——《高校大数据精准资助,让贫困学生更有尊严》来源:人民网

谷歌发布 FaceForensics 以对抗深度伪造

9 月 25 日,谷歌发布了一个庞大的 deepfake 视频数据集,其中包含 3000 个假视频。该数据集旨在支持研究人员开发检测工具。使用数据集训练自动检测工具有助于研究人员训练算法,以更有效、更准确地识别 AI 合成的图像。目前用户可以在 FaceForensics Github 上下载数据集。

谷歌承诺将在其数据库中添加更多视频,希望它能跟上快速发展的深度造假技术。该公司在公告中表示:

“随着 Deepfake 技术的快速发展,我们将添加到这个数据集,并且公司之间将继续合作进行联合研究,以减轻合成媒体滥用的潜在危害。FaceForensics 的发布是朝着这个方向迈出的重要一步。步。”

除了谷歌,Facebook 和微软也参与了打击 deepfakes 的斗争,类似的数据库预计将在今年年底发布。

- “Google 通过发布 3,000 个 deepfakes 来对抗 deepfakes”,来自:

本周有哪些值得思考的问题?

如何平衡数据创新和数据隐私保护

9月26日现在的科技可以预测地震吗,在“咖啡对话任正非”中,华为创始人兼CEO任正非与人工智能专家、未来学家杰里·卡普兰(Jerry Kaplan)与人工智能教授、前英国电信CTO彼得·科克伦(Peter Cochrane)科克伦(Peter Cochrane)就创新、规则、信任。

对于数据创新与数据隐私保护的关系,任正非表示,首先,不同国家对隐私保护的概念不同。与西方相比,中国现在对隐私更加开放。其次,通过比较国内和美国的公共安全问题,他认为隐私保护应该有利于社会和个人的安全,有利于社会的进步,完全过度的事情对社会是不利的。至于隐私保护的标准,他认为主权国家如何管理信息和数据是主权国家自己的事,不需要全世界统一标准。

华为战略部总裁张文林认为,没有必要获取所有数据来实现技术进步。拥有正确类型的可识别数据就足够了,因此科技公司不需要获取所有私人数据。在早期,一些互联网公司并没有真正弄清楚他们需要什么样的数据,但现在他们已经逐渐意识到数据隐私必须得到尊重和保护。Peter Cochrane 表示,科技公司需要使用最少的数据,然后产生最大可能的价值。

关于如何监管​​数据隐私的问题,任正非表示,全社会应该对新技术保持包容,因为没有学术和思想的自由,就不可能创造发明。发明后对人类是否有益,待发明后逐步理解。

——《任正非对话人工智能专家:华为5G技术只卖给美国》来源:腾讯科技

Face Deepfake的下一步全身Deepfake:合成技术的发展具有商业价值,但威胁始终存在

目前对 deepfakes 的担忧主要集中在假脸、模仿写作风格和声音上。但另一种形式的合成媒体技术:全身伪造正在迅速发展,并在田径、生物医学和时尚服装行业有应用。它的商业价值也是显而易见的,但其背后的问题一直存在并逐渐引起人们的关注。一个全身深度伪造的恶意用户甚至可以通过让一个静止的人直接指向相机并说出用户想让他们说的话来做到这一点。

Flemish Broadcasting Corporation 调查记者 Tom Van de Weghe 表示,不仅名人、政客等受到威胁,普通民众也可能成为 deepfakes 的受害者。将社交媒体和 deepfake 结合起来很容易造成严重破坏,因为社交媒体公司可能无法或不愿意调整平台和内容,从而允许虚假信息自由传播。

业内也在探索不同的解决方案。例如,一个团队研究了镜头的数字水印;另一个团队使用区块链技术建立信任。还有一些人正在通过最初创建 deepfake 技术的方法来识别 deepfake。加州大学伯克利分校的研究员 Shruti Agarwal 使用软生物识别模型来确定是否为视频人为创建了面部抽动。

海德堡大学图像处理协作实验室 (HCI) 和科学计算跨学科中心 (IWR) 计算机视觉教授 Björn Ommer 表示,合成图像应用的一个非常重要的部分是责任问题,政府机构公司应该看到自己的责任。但双方应如何承担这一责任现在的科技可以预测地震吗,仍是一个棘手的问题。

——“你已经被警告了:全身深度伪造是基于人工智能的人类模仿的下一步”

人工智能需要什么样的监管?

根据 9 月 23 日对英国《金融时报》的采访,谷歌首席执行官桑达尔·皮查伊表示,政府应该警惕“急于”广泛监管人工智能。他指出,现有法律应按部门重新规范,以针对不同部门的人工智能采取行动。匆忙起草提案可能会阻碍创新和研究,而不是专注于当前紧迫的问题,例如算法偏见和问责制。

前 Google 工程师 Laura Nolan 同意 Pichai 的观点,在 Business Insider 中表示,一般的 AI 监管过于宽泛,法律不应与特定技术的实施挂钩,而 AI 是一个非常模糊的术语。

牛津互联网研究所教授 Sandra Wachter 认为,人工智能的风险和收益会因行业、应用和环境而异。他列举了人工智能在刑事司法和卫生部门应用所面临的不同挑战,其中最重要的是评估法律是否符合目的。现有法律可以在某些情况下进行调整。

同时,诺兰和瓦赫特都提到了可能需要新法律的特定领域,例如面部识别、人工智能武器等。由于新技术的应用存在明显的问题,所以不规范它是故意让伤害发生。AI在战斗中的使用必须是规范的、脆弱的和不可预测的,这使得使用AI进行目标选择非常危险。

- “谷歌 CEO Sundar Pichai 警告不要‘仓促’监管人工智能,这恰好对谷歌的未来发展至关重要”来自:

科技向善是腾讯研究院于2018年初在腾讯创始人之一张志东先生的指导下发起的多方研究、对话和行动平台。这一理念升级为腾讯2019年的新使命。在这一使命下,腾讯研究院希望与社会各界共同关注技术演进带来的重大问题,寻求共识和解决方案,引导技术带来最大造福社会。

- 结尾 -

我好看吗?