加入收藏 | 设为首页 | 会员中心 | 我要投稿 保山站长网 (https://www.0875zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 站长资讯 > 动态 > 正文

支付宝2020年度账单出炉 网友:留下了贫穷的眼泪

发布时间:2021-01-07 16:52:54 所属栏目:动态 来源:互联网
导读:2018 年大众和 QuantumScape 又成立新的合资公司,未来主要为大众集团生产工业级固态电池,除了投资 QuantumScape 的固态电池,大众的电池布局还包括 11 亿欧元(约合人民币 87.87 亿元)入股国轩高科,和头部企业宁德时代和韩国 SK Innovation 等电池厂商建

 2018 年大众和 QuantumScape 又成立新的合资公司,未来主要为大众集团生产工业级固态电池,除了投资 QuantumScape 的固态电池,大众的电池布局还包括 11 亿欧元(约合人民币 87.87 亿元)入股国轩高科,和头部企业宁德时代和韩国 SK Innovation 等电池厂商建立长期战略合作伙伴关系。

  大众如此奋起直追,那特斯拉岂不危矣?

  马斯克在 2020 年第三季度的结果报告中表示,从节省电池空间的角度来看,去除传统负极「并不像听起来那么好」。

  马斯克的怀疑可能也与其自身的电池技术有关,这可能会使其比其他公司更难适应固态电解质。特斯拉使用由滚动电池组成的圆柱形电池,而其竞争对手通常喜欢所谓的棱柱形电池,其中电池可以堆叠。因为固态电池比液态电池更易碎,所以堆叠起来更容易。

  特斯拉自研电池

  马斯克一直寻求特斯拉能够实现「电池自由」,据报道,松下 CEO 津贺一宏经常会接到马斯克的电话或者邮件,「要求降低电池价格」,但是只换来了对方「不排除提高电池售价可能性」的回复,津贺一宏甚至威胁称「我们会考虑把人员和设施全部撤出超级工厂」。
 

 自然语言处理

  随着 BERT 与 OpenAI GPT 等基于 Transformer 的大规模语言模型的出现,一些专家认为自然语言处理领域将在未来十年内迎来重大突破。腾讯 AI Lab 正在为推动自然语言处理技术的发展而开展研究工作。在 2020 年 7 月举办的自然语言处理领域顶级会议 ACL 2020 上,腾讯 AI Lab 贡献了 20 篇论文,位列国内企业研究机构前列,详情参阅。

  在文本理解方面,2020 年 4 月腾讯 AI Lab 开放了,可对中文和英文两种语言的文本进行词法、句法和语义分析。与其它现有公开的文本理解工具相比,TexSmart 除了支持分词、词性标注、粗粒度命名实体识别(NER)、句法分析、语义角色标注等常见功能外,还提供细粒度命名实体识别、语义联想、深度语义表达等特色功能。TexSmart 系统获得了 2020 中国计算语言学大会(CCL)最佳系统演示奖。在对话理解方面,腾讯 AI Lab 提出了对话语义角色标注(Conversational Semantic Role Labeling)技术,该技术将对话的语义表示成多个「谓词-论元」结构,可以同时处理对话中常见的信息缺失和指代问题,有效地提升了对话的理解和下游任务的性能,如对话改写[21]和对话生成。同时,腾讯 AI Lab 将该项技术和对话理解的其他技术结合,。

  此外,腾讯 AI Lab 还在长文本阅读理解[22]、从高资源语言向低资源语言的泛化[23]、基于对话的关系抽取[24]等方面取得了一些研究进展。

  在语言生成与对话方面,除了前文已经描述过的能生成格式可控的歌词、诗词文本的 SongNet[25],腾讯 AI Lab 还研究了如何更好地理解对话上下文、如何打造千人千面的对话机器人、如何融合常识等知识、如何在保证流畅性的同时生成符合逻辑的自然语言等课题。相关研究成果包括面向多轮对话的语义角色标注与对话改写[26]、利用灰度数据增强多轮对话理解[27]、知识融合型对话生成[28]、基于开放领域表格的逻辑性自然语言生成[29]、提升对话一致性的三阶段生成模型[30]等。

  在机器翻译方面,我们致力于改善翻译模型的效果。我们提出的数据重生[31]和多领域通用翻译模型[32]可更有效利用大规模多领域混合训练数据。同时,我们继续深耕于理解并改进 Transformer 模型,其中包括理解选择性机制对自注意力网络的重要性[33],推理置信度校准研究和评估神经机器翻译的可解释性方法[34]。受益于此,我们的自动翻译(中英和英中)系统准确度继续保持国内前列,在国际翻译比赛 WMT2020 中也取得了 1 项第一,3 项第二的成绩。

  计算机视觉

  2020 年,腾讯 AI Lab 在计算机视觉方面成果颇丰。在计算机视觉领域顶级会议 CVPR 和 ECCV 上,腾讯 AI Lab 各有 11 和 18 篇论文入选,多模态学习、视频内容理解、对抗攻击与对抗防御、基于生成模型的图像编辑等多项课题。此外在 NeurIPS 2020 上也有多篇相关论文入选。

  首先来看针对视觉的对抗攻击问题,这是基于深度神经网络的计算机视觉模型的一大核心弱点,也是很多实际计算机视觉应用的最后一道门槛。当然,这也是腾讯 AI Lab 的一大重要研究课题。2020 年,腾讯 AI Lab 提出了一些实现对抗攻击的新策略,比如一种针对深度聚类的对抗策略可以挖掘易于使聚类层出现预测偏差,但却不会影响深度嵌入网络性能的样本,这种无监督对抗聚类网络能利用对抗攻击与防御训练方法提升深度聚类网络的鲁棒性[35];另一项发表在 ECCV 上的研究也提出了利用扰动分解实现稀疏对抗攻击的新思路[36]。
 

 我们喜欢看 Vlog,不就是想看看不一样的世界嘛,但真到自己亲自去拍,就是另一回事儿了。

  放手去拍,别给自己设限

  虽说何为 Vlog 仍然没有一个标准定义,但看到这,大家也应该对它有初步的印象了:个人化、生活化、故事化的类纪录片视频。

  那么根据这几点特性,想入门学习拍摄 Vlog,需要准备几样东西:学习 Vlog 的创作思路和讲故事的能力(语言表达能力),学习如何让自己在镜头前不露怯(镜头感),和一台拍摄设备。

  前两者几乎可以 0 成本获得,只要多看多练就行,而设备则是丰俭由人。

  土豪们可以选择 BMPCC 6K、大法 A7R4 等单反/微单设备;不想太烧钱可以选择大疆 Pocket、Insta360 或 GoPro 的运动相机,抄起就能开拍;再者用你现在手里的手机也照样能拍。

  越来越多手机厂商讲述着手机拍大片的故事,其中最出名的就是苹果了,陈可辛拍的「三分钟」(2018),贾樟柯所拍的「一个桶」(2019),西奥多·梅尔菲拍的「女儿」(2020)。
 

flypig、井越、王晓光等 Vlogger 追随着 Casey 的脚步,尝试着这种新的内容创作形式,他们就像是布道者,用精彩的镜头语言和有趣的画面讲述着自己生活中发生的故事,也让 Vlog 文化在国内生根发芽。

  在他们的演绎下,观众或是被视频里的梗逗笑,或是被里面出现的某人某物某情触动引起共鸣,这就是 Vlog 与一般视频存在区别的地方,更接地气,更容易让人共情。

  看过一段时间的 Vlog 后,我发现优秀的 Vlog 内容大概会有三大要素:创意、文案和技术力。

  我最开始关注一名叫「极地手记」的 B 站 UP 主,就是因为我想学习如何拍 Vlog,他的每一期视频的片头都非常用心,自制道具作为故事板,带出这一期想要讲的故事主题,同样精于创意的还有大家熟知的「何同学」。

  另一位长期关注的 UP 主「狂阿弥_」则擅长讲故事,每次看他视频,都惊叹于他的文字感染力,或者用弹幕常说的「满分作文」来形容更加合适。

  还有不少以炫酷转场为亮点的 UP,我都把他们的视频看了一遍,发现他们都有一个共同点,无论是片头、文案、或是转场,这些创意都是为故事服务,而包装故事这个过程,很花时间。

  如果不想花太多精力去包装故事,那所讲故事本身必须非常精彩,而且故事素材必须天天有。

  这种类型的 Vlog 对创作者的日常生活提出了极高的要求,毕竟不是每个人过着像卡戴珊一般的生活,这一点足够劝退。flypig 的「朝鲜 95 小时」系列 Vlog 便是此类型视频的优秀范例。

(编辑:保山站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    热点阅读