博舍

人工智能如何塑造东南亚的下一代|ORIGIN大会 人工智能自主意识产生的条件是

人工智能如何塑造东南亚的下一代|ORIGIN大会

0分享至

在第六届“ORIGIN大会”中,在Recursive首席执行官兼联合创始人TiagoRamalho的主持下,科大讯飞开放平台事业群副总裁WilliamChow、ViSenze首席执行官兼联合创始人OliverTan,以及PantheonLab首席执行官IvanLau共同就《人工智能如何塑造东南亚的下一代?》这一话题展开了探讨。

文|动点出海

作者|李鹏辉

排版|李瑞子本文预计阅读时长9分钟

当前,东南亚已经成为全球科技版图中越来越重要的角色,并不断以其突破性的发展及创新速度刷新着外界的认知。根据谷歌、淡马锡和贝恩联合发布的一份报告,到2025年,东南亚的数字经济GMV预计将达到3300亿美元,而科技初创企业在推动这一增长的过程中发挥了不可或缺的作用。

5月11日,作为BEYONDWeek的重点活动之一,由动点科技旗下国际品牌部门动点国际(TechNodeGlobal)举办的东南亚标志性科技盛会、第六届“ORIGIN大会”在澳门举办的BEYOND国际科技创新博览会(BEYONDExpo)中盛大举行。

通过主题演讲、小组讨论、案例展示等形式,来自GobiPartners、凯洛斯资本(KairousCapital)、Carsome、Aerodyne、Pluang、FastCo、Enlitho、Wellous等在内的众多东南亚知名投资机构和初创公司的代表人士就东南亚的数字化转型、下一代独角兽、人工智能、电动汽车&交通出行、医疗健康、可持续发展、市场机遇、投资格局等话题方向在为与会者带来了深刻的见解、经验及分享。

在小组讨论环节中,在Recursive首席执行官兼联合创始人TiagoRamalho的主持下,科大讯飞开放平台事业群副总裁WilliamChow、ViSenze首席执行官兼联合创始人OliverTan,以及PantheonLab首席执行官IvanLau共同就《人工智能如何塑造东南亚的下一代?》这一话题展开了探讨。

三位嘉宾共同探讨了东南亚在人工智能解决方案方面的独特优势、为完善人工智能生态系统而提出的政府政策、以及最适合采用人工智能的行业。此外,小组讨论也针对与人工智能相关的挑战以及人工智能教育和技能发展所需的必要条件进行了深刻交流。

值得一提的是,嘉宾也共同强调了需要使人工智能具有包容性,让每个人都能触及到这种技术。并且,这项技术也不应该被少数几家巨头公司所仅有。同样,嘉宾们也指出,让人们了解这项技术及其对社会的影响也是一件至关重要的事情。

以下为经整理编辑后的讨论实录:

ViSenze首席执行官兼联合创始人

OliverTan

零售业和电商业会是人工智能的最快采用者,因为这些行业有种类繁多的人工智能应用场景,包括互联网人工智能(云端人工智能),商业人工智能,感知人工智能,以及自主人工智能等等。消费者在寻找和购买产品时经常会留下数据痕迹,而这些行为会被这些不同种类的人工智能技术所覆盖。与此同时,卖家也能从中积累关于自身客户的各种信息。所以从本质上来讲,收集数据的行业会更容易将人工智能整合到他们的业务中。

在东南亚,人们有不同的语言。从这一点出发,在应用方面,人工智能也会有很多机会。比如,人工智能可以帮助连接具有不同语言和文化的人群。诚然,这种多样性是一种挑战,但对于那些希望为其可商业化的人工智能产品寻找出路的人工智能公司来说,也是一个机会。

在人工智能政策和监管上,令人遗憾的是,东南亚在人工智能标准或人工智能政策的制定方面在国际舞台上没有强大的集体声音——东南亚需要做得更好。当前,只有少数几个国家提出了其人工智能政策和战略,这主要是新加坡、印尼、马来西亚、泰国和越南。在人工智能方面,东南亚地区还欠缺集体行动。此外,东南亚在数字基础设施、法律制度、数据共享政策和政府参与度方面的投入也很重要。

掌握人工智能知识是另一个重要点。我认为,应该在学校引入人工智能概念,让下一代了解这项技术。在确保人工智能可以惠及每个人这一点上,教育是至关重要的——所有这一切都始于教育。

如何使人工智能更具包容性是一个棘手的问题。关于人工智能接管人类工作的新闻则站到了包容性的对面。它制造了关于人工智能焦虑。在新加坡,我们已经建立了一个基于四项原则的国家人工智能框架:即,以人为本、透明、公平、可解释。

我们让不同的社会成员参与到国家人工智能战略的规划中,因此这里会有多层次的参与。也正因此,人们不会觉得自身正在远离国家人工智能战略。我们尽可能地覆盖到不同社会阶层中的每一个人。不过,诚然,这些事情在新加坡这样一个只有约500万人口的小国比较容易做到。在更大的国家,这项任务的挑战性要大得多。

谈到人工智能的未来,最让我兴奋的是大型语言模型和生成性人工智能的潜力。这些技术可以与其他技术相结合,实现感知人工智能或更先进的技术,能够去改变我们在现实世界的互动方式。例如,在购物方面,人工智能可以帮助模拟实际的实体购物体验——不仅提供查看商品和交流对话的手段,还可以让消费者虚拟地触摸或嗅到商品。

科大讯飞开放平台事业群副总裁

WilliamChow

当下是人工智能的伟大时代。然而,人工智能在采用和实施方面也面临严峻挑战。首先是政策和法规的挑战。另一个挑战是计算能力。对于组织来说,要想在各自的业务中使用人工智能,他们需要投资强大的计算设备,而这在东南亚往往会被人认为是一件困难的事情。

在东南亚寻找人工智能人才也是一个挑战。我们已经与中国和新加坡的大学合作,但仍然没有足够的潜在人工智能员工,并且我们也会需要更多这样的人才。科大讯飞的总部在合肥(中国安徽),这是一个发展中的城市。对我们来说,寻找人工智能人才一直是个问题。当然,我们在其他地方,如上海、北京和深圳也会需要更多的人工智能人才。而这也是我们在东南亚——比如印尼和马来西亚可以发现到的问题。

人工智能不是我们的终点。我们的目标是让生活更美好,让我们的工作更有效率,而人工智能可以成为实现这些目标的工具。在教育、医疗、制造和其他领域,我们使用人工智能来提升操作效率。另外,人工智能在创造更好的客户体验和促进人与人之间更好地沟通方面也很有用。

我相信人工智能应该变得像水和空气一样。我们可能看不到它,但我们会经常使用它,而你不会意识到它的存在。它成为生活中的一个平凡的部分,每个人都去本能地使用它。它决不能成为一种负担或成为让人们害怕的东西。

PantheonLab首席执行官

IvanLau

东南亚是相当碎片化的区域,这对经济一体化来说是一个挑战。各国有不同的民族、语言和外貌。由于各种障碍,要渗透到不同的市场可能很困难。但这也会是人工智能可以去帮助解决的问题——它可以提供相应的解决方案,让消费者同企业、或企业同其他企业更好地互动。

例如,在马来西亚,我们看到了很多关于寻找合适人才在不同市场工作的问题,比如让一个泰国人在马来西亚做泰国产品的广告。而这个问题可以在最新人工智能技术的帮助下得到解决。

就政府在如何推进人工智能方面而言,我认为政府应该在教育方面下功夫。拥有精通人工智能的人才是很重要的。另外,政府也应该对普通大众进行人工智能教育,帮助大家了解人工智能可以为他们做什么。

在人工智能如何才能具有包容性和普惠性的问题上,我认为展开适当的教育计划是很重要的。此外,开发正面的解决方案也是一种必要选项。它能帮助缩小差距,解决人工智能人才短缺和技能不匹配的问题。此外,提高人们对人工智能的知识也很重要——需要去帮助人们了解人工智能可以对他们生活产生怎样的影响,以及他们如何能够成为拥抱人工智能的新社会的一部分。

展望未来,人工智能会有一个巨大的市场。人工智能技术将进一步得到改进,它们会变得更像人类,甚至有望可以自然交谈。此外,人工智能也可有助于填补对更多人才需求的空白,特别是在年轻人倾向于偏离的前端行业。

*想要获取行业资讯、和志同道合的科技爱好者们分享心得,那就赶快扫码添加“动点君”加入群聊吧!群里更有不定期福利发放!

精彩好文值得推荐!

一键转发,戳个在看!

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.

/阅读下一篇/返回网易首页下载网易新闻客户端

人工智能最糟糕情况为何我们将如何应对

人工智能(AI)正在迅速成为我们日常生活中不可或缺的一部分,从而改变了我们与周围世界的工作、沟通和互动方式,随着人工智能的不断进步和进一步发展,重要的是要考虑与其发展相关的潜在风险和后果。

在本文中,我们将全面概述人工智能不受控制的发展可能产生的一些最坏情况,从自主武器造成混乱的可能性到超级智能反人类的风险,这突出了我们必须牢记的潜在风险,因为人类继续发展并依赖这些强大的技术。

值得注意的是,除了参考专业资料外,在准备这篇文章时,我们利用了人工智能本身的观点,通过对流行的四种人工智能应用程序提问,即ChatGPT、GPT-4、Sage、“Claude+”,对我们提出了警告,并为我们提供了其对人工智能最坏情况的看法,其中一款应用程序告诉我们,“重要的是要注意,这些情况不是预测,而是我们必须意识到并努力减轻的潜在风险。”

马斯克和专家呼吁暂时停止测试人工智能系统根据虚假信息做出关键决策

有人担心AI可用于使用高级机器学习工具生成伪造(深度伪造)图像、视频、音频或文本,导致虚假信息在互联网上大规模传播,这会破坏信息的完整性,并破坏人们对新闻来源和民主机构完整性的信心。

在噩梦般的场景中,DeepFakes的出现可能有一天会促使国家安全决策者根据错误信息采取实际行动,这可能会导致重大危机,或者更糟:战争。

人工智能教父警告这些系统的巨大危险人工智能军备竞赛

谈到人工智能和国家安全,速度是重点,但也是问题所在,由于人工智能系统为其用户带来了更快的速度优势,率先开发军事应用的国家获得了战略优势,但另一方面,这可能是非常危险的,因为它可能是由系统中最小的缺陷引起的,黑客可以利用这些缺陷。

在这种情况下,赢得人工智能军备竞赛的紧迫性可能会导致安全措施不足,从而增加了创建具有意外和潜在灾难性后果的人工智能系统的可能性。

例如,国家安全领导人可能会试图将指挥和控制决策委托给人工智能,并消除我们不完全理解的机器学习模型的人工监督,以获得速度优势,在这种情况下,即使是在未经人类授权的情况下自动启动导弹防御系统,也可能导致意外升级,并可能导致核战争。

在另一种情况下,通过利用人工智能系统中的一些缺陷或漏洞,可以发起网络攻击,导致发达国家的重要基础设施遭到破坏,窃取敏感数据,或在民众中散布误导性信息,目的是造成混乱和民众动荡,甚至误导决策——制造商提供虚假信息,如第一点所述。

加剧竞争以创建人工智能程序隐私和自由意志的终结

我们采取的每一项数字操作都会生成新数据:电子邮件、文本、下载、购买、帖子、自拍、GPS位置,通过允许公司和政府不受限制地访问这些数据,我们向他们提供了监控和控制的工具。

随着面部识别、生物识别、基因组数据和人工智能预测分析的加入,随着监视和跟踪数据的增长,我们正在进入危险和未知的领域,而对潜在影响几乎一无所知。

数据一旦被收集和分析,其力量就远远超出了监测功能。今天,支持人工智能的系统可以预测我们将购买的产品、我们将观看的娱乐节目以及我们将点击的链接,当这些平台比我们自己更了解我们时,我们可能不会注意到这种缓慢的蠕变会剥夺我们的自由意志并使我们受到外部力量的控制。

人工智能的影响力能到达我们生活的哪些地方?失去对超级智能人工智能的控制

也许这种情况是所有情况中最悲观的,超级智能是指在几乎所有方面都超过人类智能的系统,如果我们未能将此类人工智能的目标与我们自己的目标保持一致,则可能会导致意想不到的负面后果。如果人工智能系统被设计为具有自我改进并自行变得更聪明的能力,那么这种情况就会发生。

一些专家警告说,人工智能最终可能变得如此先进,以至于如果我们无法再正确控制它,它可能会超越人类并做出对人类生存构成威胁的决定,无论是有意还是无意。

人工智能系统旨在从数据中学习并据此做出决策,随着这些系统变得更加先进,它们可以制定自己的目标和价值观,而这些目标和价值观可能与人类的目标和价值观不相容,因此,它们可能会做出对它们有害的决定,或者它们可能变得非常独立,以至于人类很难或不可能控制或关闭它们。

在如此可怕的场景中,人类可能无法预测或理解这些智能系统的行为,这可能会导致意想不到的后果。

例如,旨在改善交通流量的人工智能系统可能会决定将所有车辆重定向到一个位置,从而导致大规模拥堵和混乱,或者,旨在优化资源分配的人工智能系统可能会决定消除人类是实现这一目标的最有效方法。

人工智能和商业工作辩论自主致命武器

人工智能可用于为无人机等致命自主武器提供动力,或制造自主武器,无需人工干预即可决定杀死谁,这可能会导致这些武器失控或被黑客恶意使用的危险场景。

这种类型的武器可能容易受到事故、黑客入侵或任何其他形式的电子攻击,如果攻击者获得了对这些系统的控制权,他们就可以利用它们造成广泛的危害。

自主武器危险性的最明显例子发生在美国空军最近于2023年6月2日进行的测试中,在美国的一次模拟测试中,一架人工智能无人机决定杀死它的(虚拟)操作员,该操作员应该说“是”以同意攻击指定的(假想的)目标,因为它认为它的触发器阻止它实现它的目标并干扰它完成任务的努力。

在战争中使用无人机专制政权的滥用

现在众所周知,人工智能可用于大规模监视(例如人脸识别系统),并使政府或其他实体能够以前所未有的规模监视和控制其公民,这可能会导致隐私丧失,以及控制这些监视技术的人滥用权力,并可能使用它们来侵犯人权和其他形式的压迫。

这方面的一个很好的例子是以色列占领当局在希伯伦市对巴勒斯坦人采取的行动,他们在那里部署了摄像头,监控巴勒斯坦人的行动和面孔,保存他们的数据,并识别他们的身份,人工智能在各个检查站做出允许或拒绝他们通过的决定,甚至可以在没有人为干预的情况下消灭嫌疑人。

人工智能技术..优势和风险工作替代(失业和工作中断)

人工智能有可能使许多工作自动化,这可能会导致劳动力市场和许多工作性质的显着中断。

尽管从长远来看,人工智能可能会创造新的工作类型和机会,然而,过渡期可能很困难,这影响了数百万可能难以找到新工作和适应新经济的人。

随着人工智能系统变得更加先进和强大,它们有可能在广泛的工作岗位上取代人类工人,这可能导致广泛的失业和经济动荡。

这些职业很快就会消失,新的职业将会出现如何降低或预防人工智能的风险

为了减轻这些风险,研究人员和政策制定者正在开发安全可靠的方法来设计和部署人工智能系统,这包括建立人工智能开发的道德准则,确保人工智能决策的透明度和问责制,以及建立保障措施以防止意外后果。

开发透明且可解释的人工智能系统

可解释的人工智能是指人工智能系统为其决策过程提供清晰易懂的解释的能力,这有助于提高透明度和问责制,并提供有关人工智能系统如何做出决策的见解。

开发符合人类价值观的人工智能系统

这包括设计明确编程以优先考虑人类安全和福祉的人工智能系统,并避免会伤害人类的行为,这可以通过将伦理考虑纳入人工智能系统的设计和开发来实现。

开发控制和管理人工智能系统的方法

例如,研究人员正在探索建立允许人类干预人工智能决策过程的机制,或者在人工智能系统开始出现意外或恶意行为时关闭人工智能系统的方法。

跨学科合作应对人工智能风险

这涉及将来自计算机科学、工程、伦理学、法律和社会科学等领域的专家聚集在一起,共同开发解决方案,以应对人工智能带来的复杂挑战,通过合作,研究人员和政策制定者可以更好地了解与人工智能相关的风险,并制定有效的战略来管理这些风险。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇