博舍

办公软件+人工智能→ 人工智能用在哪里

办公软件+人工智能→

今日主播周明阳:

用人工智能技术提升办公效率,正成为科技巨头们努力的新方向。本周早些时候,谷歌宣布在旗下的Gmail、谷歌文档、表格、会议、幻灯片等生产力软件中都将嵌入其人工智能模型。微软紧随其后。当地时间3月16日,微软在其官网宣布公司正在将其人工智能技术植入到办公软件中,该功能名为“Microsoft365Copilot”,意图将其打造成为用户工作的好助手。

按照微软的设计,Copilot可以在微软的多个商业应用程序中使用,包括Word、PowerPoint、Excel等。在Word中,Copilot可以帮助用户扫描文档,快速提取有用的信息,节省采编、写作的时间;在Excel中,它可以帮助用户分析数据的趋势,在表格中突出显示关键的数据;另外它还可以在PowerPoint中根据用户需求快速生成幻灯片。

微软首席执行官纳德拉说,在与计算机技术互动的道路上,今天我们迈出了重要的一步,这将从根本上改变我们的工作方式,释放出新一轮的生产力。虽然Copilot并不是任何时候都正确,有时也会犯错误,不过整体来看,它在辅助用户工作方面依然很有帮助。

更多资讯请看今日双语“外企头条”↓

微软在Word和Excel中引入OpenAI技术

MicrosoftAddsOpenAITechnologytoWordandExcel

微软公司官网图

3月16日,微软宣布将把新人工智能助手功能Copilot引入其热门商业应用程序中,包括Word、PowerPoint和Excel等。

OnMarch16,MicrosoftannouncedthatthenewA.I.features,dubbedCopilot,willbeavailableinsomeofthecompany’smostpopularbusinessapps,includingWord,PowerPoint,Excel,andmore.

微软在一份声明中表示,微软将Copilot定位为具有更强大的功能,而不仅仅是“将OpenAI的ChatGPT嵌入微软365”。

MicrosoftispitchingtheCopilotfeaturesasbeingmorepowerfulthansimplybeing“OpenAI’sChatGPTembeddedintoMicrosoft365,”thecompanysaidinanannouncement.

微软首席执行官萨蒂亚·纳德拉表示:“有了新的copilot功能,我们将通过最通用的界面——自然语言,让人们更容易获得技术。”

“Withournewcopilotforwork,we’regivingpeoplemoreagencyandmakingtechnologymoreaccessiblethroughthemostuniversalinterface—naturallanguage,”MicrosoftCEOSatyaNadellasaid.

据介绍,Copilot技术建立在被称为大型语言模型(LLM)的人工智能软件之上。

TheCopilottechnologyisbuiltuponatypeofartificialintelligencesoftwareknownasalargelanguagemodel,orLLM.

微软表示,公司正在“与一小部分客户测试Copilot,以获得反馈,并随着规模的扩大而(不断)改进模型。”

Thecompanysaidthatit’stestingCopilot“withasmallgroupofcustomerstogetfeedbackandimproveourmodelsaswescale.”

纽交所航空指数单日下跌6%

AmericanAirlinesSharesFell6%ontheNYSE

新华社图

3月15日下午,包括美国航空公司在内的纽约证券交易所Arca航空指数下跌6%,超过当天标普500指数的跌幅,创下自去年6月以来的最大单日百分比跌幅。

TheNYSEArcaAirlineindex,whichincludesmostlyU.S.carriers,wasdownabout6%ontheafternoonofMarch15,ontrackforitsbiggestone-daypercentagedeclinesincelastJune.ItoutpacedadropintheS&P500.

CNBC报道称,美国航空股下跌原因是由于市场对一些银行的稳定性感到担忧,以及消费者支出开始有所下降。

CNBCreportedthatU.S.airlinestocksslidasthemarketfellbroadlyamidconcernsoverstabilityofsomebanksandnewdatathatshowedaslowdowninconsumerspending.

但航空公司高管始终对2023年的旅游需求持乐观态度。

Butairlineexecutiveshavebeenupbeatabouttraveldemandin2023.

他们预计,尽管成本上升,但2023年的利润仍将强劲,休闲旅游将继续领跑。

Theyexpectstrongprofitsin2023,despitehighercosts,withleisuretravelcontinuingtoleadtheway.

来源/经济日报微信

主播/周明阳

双语/朱琳

原标题:《办公软件+人工智能→》

阅读原文

人工智能“淘金热”是公司追求利润的产物其风险点到底在哪里

最近,我收看了RightsCon大会的一系列讲座。这是世界上最大的数字权利会议,经过数年的网络会议之后,顶级互联网伦理学家、活动家和政策制定者终于再次回到了哥斯达黎加。

(来源:ACCESSNOW)

不出所料,每个人都在谈论人工智能和最近的大型语言模型热潮。在会议之前,联合国发表了一份声明,鼓励RightsCon与会者关注人工智能的监督和透明度。

然而,我感到惊讶的是,RightsCon上关于生成式人工智能风险的对话与我在新闻中看到的“硅谷大佬警告”有多么不同。

在过去的几周里,OpenAICEO萨姆·奥特曼(SamAltman)、人工智能先驱杰弗里·辛顿(GeoffHinton)、顶级人工智能研究员约书亚·班吉奥(YoshuaBengio)、埃隆·马斯克和其他许多科技名人一直在呼吁监管和紧急行动,以解决(人工智能带来的)“生存风险”,甚至包括人工智能灭绝人类的可能性。

当然,在没有风险评估、没有披露训练数据和流程的情况下,快速部署大型语言模型,或者似乎非常关注技术如何被滥用,这令人担忧。但在RightsCon的几次会议上,一些演讲者强调,人工智能淘金热是公司追求利润的产物,而不一定是监管不力或技术上不可避免的发展趋势。

在第一次会议上,《连线》的首席编辑吉迪恩·利奇菲尔德(GideonLichfield)和数字未来实验室的创始人乌尔瓦西·阿内贾(UrvashiAneja)与谷歌的肯特·沃克(KentWalker)针锋相对。

利奇菲尔德说:“微软的萨蒂亚·纳德拉(SatyaNadella)说,他想让谷歌加入战局。谷歌也这样做了。现在,我们所有人都被迫加入其中,因为这两家公司都在试图打败对方。”对此,沃克强调了人工智能的进步可能在药物发现等领域带来的社会效益,并重申了谷歌对人权的承诺。

第二天,人工智能研究人员提米特·格布鲁(TimnitGebru)直接谈到了人工智能带来的生存风险:“将机构归为一种工具是一个错误,这是一种转移注意力的策略。如果你看到谁说这样的话,那么这些人很可能向这些公司投资了数十亿美元。”

她说:“就在几个月前,杰夫·辛顿还在谈论GPT-4,以及它是如何成为世界上最靓丽的蝴蝶的——它就像一只毛毛虫获取数据,然后羽化成一只美丽的蝴蝶。突然之间,它变成了一种生存风险。我的意思是,人们为什么要认真对待这些人?”

人权观察的技术和人权总监弗雷德里克·卡尔特纳(FrederikeKaltheuner)等专家对围绕人工智能的叙述感到失望,他们建议将自己置于我们已知的、困扰人工智能的风险中,而不是猜测可能会发生什么。

人工智能的使用带来了一些明显的、有迹可循的危害。它们包括:

错误信息的增加和放大:Instagram、Twitter和YouTube等社交媒体平台上的推荐算法已被证明,无论准确性如何,都会优先推广极端和情感上令人信服的内容。大语言模型通过产生被称为“幻觉”的以假乱真的错误信息放大了这个问题。

有偏见的训练数据和输出:人工智能模型往往是在有偏见的数据集上训练的,这可能导致有偏见的输出,进而可能加剧现有的社会不平等,比如评估某些福利时存在歧视的算法,或者面部识别系统对深色皮肤人种的识别准确度不如白人。ChatGPT散布种族主义内容的案例也比比皆是。

侵犯用户隐私:训练人工智能模型需要大量数据,这些数据通常是从网上找到或购买的,这引发了关于获得所有者同意和隐私的问题。开发大型语言模型(如ChatGPT和Bard)的公司,尚未发布太多关于用于训练它们的数据集的信息,尽管它们肯定包含大量来自互联网的数据。

卡尔特纳表示,她特别担心生成式人工智能聊天机器人会被部署在心理健康治疗等高风险场景中:“我担心,生成式人工智能在技术不适合或目的不恰当的情况下,会出现特别鲁莽的使用案例。”

格布鲁重申了对运行复杂的大型语言模型所需的大量计算能力所造成的环境影响的担忧(她表示,自己因在内部研究中提出这些和其他问题而被谷歌解雇)。她指出,ChatGPT的内容审查员在薪水不高的情况下,仍在努力降低模型输出内容的毒性,由此也经历了创伤后应激障碍。

关于对人类未来的担忧,卡尔特纳问道:“谁的灭绝?整个人类的灭绝?我们已经看到历史上被边缘化的人在此刻正在受到伤害。这就是为什么我觉得灭绝的说法有点没找到重点。”

支持:Ren

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇