人机交互评判标准的四个原则
好的人机交互设计(UX)评判标准的四个原则一些设计的基本原则往往是通用的,甚至可以说放之四海皆准的,例如优先级、一致性、界面的隐喻等等,好的设计都需要考虑到这些问题,甚至再更广的范围内也同样适用,而不仅仅是交互设计范畴。
一个设计师&产品经理应该在决策时下意识的、本能的考虑这些原则。就像以前很多零售业者能够一抓准,你要一斤糖,他抓起来就是一斤,不多不少,靠的就是不断的练习+思考,最后将其变成了自己的本能。
越是通用的标准,往往也就离细节越远,需要结合界面的具体部分(信息架构、导航、交互、语词、视觉等)和产品的具体领域(例如音乐播放器、阅读软件等)来看。
1.优先级苹果的设计为什么让我们觉得精彩?为什么我们父母级的用户都能够很快入手?
我曾经观察我的父母试用iPad,他们能够很快开始尝试操作,而不像面对很多其他的数码产品时那样无从入手。其中的一个重要原因是苹果在处理设计的优先级方面非常成功。
当我在看iPhone非常细节的设计时,常常非常佩服他们的设计师&产品经理能够如此有魄力地砍掉功能和界面元素,从而让重点的变得更重点,让需要突出的变得更突出。
一个基本的假设:如同经济学里资源的稀缺性假设一样,用户的认知资源和系统的界面资源都是稀缺的。
当你把所有重要的东西都摆上桌面,就没有重要的东西了。用户的认知空间和认知能力有限,当他们面前有1条路可以选择时,事情会变得很简单,但是当他们面临3条路时,往往会踌躇不前。尽管我们难以量化地说用户有多少精力在这种抉择中损耗掉了,但这种损失是显而易见的。
看看Android原生系统的设计,用户想要运行一个应用时,有几条路?
设计中对优先级的把握就是要让我们能够将真正重要的功能/内容/元素放到突出的位置,以最多的界面资源去展示它们,而将次要的部分弱化、隐藏起来,再次的部分则索性砍掉。
具体来说:
a.用户优先级
把握核心用户,为产品自己真正的用户群做设计,不要天真地认为你的设计可以满足所有用户。
b.功能优先级
把握核心需求,亮点功能往往两三个就足够多了。功能航母往往容易沉没(看看为何现代战争中巨型战列舰都逐渐被淘汰了),NokiaVSApple也是这样。有一次Tina(创新工场的COO)的一句话让我很受教,她说她以前做Marketing时,给客户讲产品,往往一次只讲三个Feature,即使这个产品或版本其实有更多的亮点。设计或者开发产品时我们总是想尽可能地将好东西放进去,但是打动客户/用户的点却往往只在三个以内。
c.内容/信息优先级
将内容分成不同的层次,核心内容需要明显地突出出来。报纸上的标题、摘要、征文等层次清晰、泾渭分明也是这个原因。
d.交互优先级
主要的交互路径需要让用户以最小的精神代价就能走得通,尽量减少这条路上的分支。为此,一些时候不得不将一些次要的交互路径更含蓄地隐藏起来。最常用的可能是「高级设置」这样的形式。
e.视觉优先级
视觉更需要层次,重点的视觉元素需要让用户一眼扫过去就能看到,而次要的信息则要拉开距离,通过留白、颜色对比等等手段。一个例子是做PPT,当我们看到好的PPT时,总发现里面有大量的空间、有灰色的文字,这样将重点突出出来,而很多人在做PPT时则会直接COPY大段文字,直接用粗体、黑色,满屏幕只见到黑色的一片。
和优先级这个原则互通的概念还有简化(简化的目的实际上就是突出重点)、减法原则等等。
2.一致性一致性可以让界面更容易被预知,可以降低用户的学习成本等等。一致性几乎是设计中最普遍的一条原则,也是缺乏设计经验的团队最容易犯的错误。做可用性评估时,几乎每次都能找出一堆的不一致问题。
通常需要注意一致性的地方包括:
a.交互逻辑的一致性
完成同样功能,交互逻辑是否一样,流程是否相似。
b.元素的一致性
同样的交互逻辑,使用的控件等是否一致,不允许这里用按钮来执行动作,在那边变成了图标,另一个地方又是链接。
c.语词的一致性
界面上使用的语言,在描述同一个事物时是否是一致的。
d.信息架构的一致性
信息的组织层次方面是否是一致的,导航是否是一致的,等等。
e.视觉的一致性
界面的图标、颜色、区域的分隔、指向等方面是否是一致的。
通常一致性还有另一个问题,就是在什么时候做出权衡取舍。
有时强制的一致性会引发其他问题,例如用户在执行某些任务时效率会降低,会导致界面的复杂度增加等等。这时我们不得不做出权衡,决定是保持一致性,还是采用一个异常的但又合理的设计。有时需要说服做开发和测试的同事们在某些特殊的地方牺牲一致性来得到更好的设计。
3.感觉可用性工程的教科书里,往往会有「主观满意度」的内容(实际上这也是ISO9241的内容之一),但是却也往往语焉不详,因为主观的问题往往难以通过工程/经验的方法来解决。
但是我们还是可以找出几个明显的能够在设计中考虑到的点,来照顾用户的感觉。
例如以下几点:
a.快的感觉
天下武功,无坚不摧,唯快不破。IBM做测试的同事会拿秒表(当然他们似乎还有更好的工具)来掐时间测试Performance,如果某个版本的Case有Performance的明显下降,会是个大事故。
我们通常还可以在设计上有很多处理来产生快的感觉,例如先让界面显示出结果,同时后台再去做操作(例如存储等耗时间的操作),避免用户的等待(当然最痛苦的是被工程师告知界面上的显示效率就已经低到需要用户等待了)。
曾经看过一个研究,在进度条的显示上,越来越快的进度条最能够让用户感觉到快,而不是那些完全真实反应内部进度的进度条(真实的情况可能是越来越慢)。
b.安全的感觉
用户敢在看起来很「山寨」的界面上输入自己的密码么?用户需要经常自己保存么?Google的Gmail是个好例子,而MSWindows的升级后自动重启是个坏例子,某一次我同时遇到了它们:WindowsXP打完某些补丁后,会要求重新启动系统,这时你可以选择立刻重启,或者点击一个按钮,等待若干时间后再提醒,如果什么都不做,它会在一小短时间内自动重启。当我正在工作时,显然不愿意立刻重启系统,于是我选择了稍后提醒,然后又工作了很久,在Gmail里写了一封邮件。这时刚好有人来找我讨论问题,等回到电脑前后,发现它自动重启了……没有保存的工作都丢失了。但是好在Gmail会自动保存我已经写过的邮件内容,让人稍稍安心。
知乎的文本编辑框也是一个好例子。
c.其他感觉
例如界面语言是否让用户感觉到尊重。
一个小例子,新浪微博的客户端里,用户发完微博后,有时因为系统的原因(发送按钮监听到了两次事件,或者别的什么原因),微博内容可能会在用户不知情的情况下「试图」重复发送,这时会弹出一个提示框,告诉用户说「不要太贪心哦……」用户多委屈。
4.临界点临界点就是压倒大象的最后一根稻草。是什么让用户决定注册产品开始使用的?往往就是多动那么一下手指、多学习思考一小下,用户就从门口溜走了。临界点往往是多种因素综合的作用,与用户的主观心理(感觉)、客观因素(绩效)等有关系,姑且作为半个原则来看。
常常惊讶于一些产品(特别是移动产品)能够在用户看到的第一个界面,放一个大大的登陆或者注册框在上面,任何好东西都没给用户看到,就让用户先来注册。
以前在一个设计中,给一个公司的同事讲过一个故事:如果有一天你在街上找人问路,那人说「给我5毛我才能告诉你」,尽管你不情愿但还是给了他5毛,他拿了钱告诉你说「经过查询我发现自己不知道」。在实际的设计中,用户付出的并不仅仅是金钱的费用,他们的精力也是成本,这时用户就会去盘算到底值不值得来进行下一步的操作。
听曾在Google工作的同事讲过这样一个例子:Google的右边栏广告以前点击率总是上不去,后来做了一个改动,这些广告点击率立刻上升了很多。这个改动就是:让这些广告的区域离搜索结果区域的距离更近一点……
Kik这个产品的成功,和他们不动声色地利用用户通讯录来帮用户快速匹配好友有很大的关系。姑且不论这样做是否合乎道德和法律,他们的确帮助用户跨越了临界点。如果它需要让用户自己通过昵称、账号来一个一个地添加好友,还能有今天的成果么?
一个注册的流程、一个对话框、一次点击……这些小地方就很有可能会是用户的临界点,设计的价值往往也就在这些地方,小改动往往会有大变化。
通常我们要特别注意优先级高的任务/界面里,是否会存在临界点的问题。如果优先级最高的任务里,用户难以跨越我们的门槛,就很难保证产品的成功。
这是一个细腻的工作,有时作为设计师&产品经理,你可能不得不为了一个小细节和开发团队讨论/争取很久,因为别人会觉得这个细节不值得投入工作量,但你知道这可能会决定用户能否跨越临界点。
人工智能可能有自主意识了吗
参会者在第六届世界智能大会上参观(2022年6月24日摄) 赵子硕摄/本刊
➤大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术
➤不同于当前依赖数据学习的技术路线,新一代人工智能强调在没有经过数据学习的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互
➤当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。在发展科技的同时,必须同步发展我们的规制体系
➤“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”
文 |《瞭望》新闻周刊记者 于雪 魏雨虹
今年6月,美国谷歌公司软件工程师布莱克·勒莫因称语言模型LaMDA出现自我意识。他认为,LaMDA拥有七八岁孩童的智力,并相信LaMDA正在争取自己作为一个人的权利。
LaMDA是谷歌去年发布的一款专门用于对话的语言模型,主要功能是可以与人类交谈。
为佐证观点,勒莫因把自己和LaMDA的聊天记录上传至互联网。随后,谷歌以违反保密协议为由对其停职。谷歌表示,没有任何证据支持勒莫因的观点。
事实上,“AI(人工智能)是否拥有自主意识”一直争议不休。此次谷歌工程师和LaMDA的故事,再次引发讨论。人们想知道:人工智能技术究竟发展到了怎样的阶段?是否真的具备自主意识?其判定依据是什么?未来我们又该以怎样的能力和心态与人工智能和谐共处?
人工智能自主意识之辨
勒莫因认为LaMDA具有意识的原因有三:一是LaMDA以前所未有的方式高效、创造性地使用语言;二是它以与人类相似的方式分享感觉;三是它会表达内省和想象,既会担忧未来,也会追忆过去。
受访专家告诉《瞭望》新闻周刊记者,上述现象仅仅是因为LaMDA所基于的Transformer架构能够联系上下文,进行高精度的人类对话模拟,故能应对人类开放、发散的交谈。
至于人工智能是否已经具备自主意识,判定标准如何,受访专家表示,对人类意识的探索目前仍属于科技前沿,尚未形成统一定义。
清华大学北京信息科学与技术国家研究中心助理研究员郭雨晨说:“我们说人有自主意识,是因为人知道自己在干什么。机器则不一样,你对它输入内容,它只是依照程序设定进行反馈。”
中国社会科学院科学技术哲学研究室主任段伟文认为,一般意义上,人的自我意识是指对自我具备觉知,但如何认识和理解人类意识更多还是一个哲学问题而不是科学问题,这也是很难明确定义人工智能是否具备意识的原因。
被誉为“计算机科学与人工智能之父”的艾伦·图灵,早在1950年就曾提出图灵测试——如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么可以称这台机器具有智能。
这一设想随后被具化为,如果有超过30%参与测试的人以为自己在和人说话而非计算机,就可以认为“机器会思考”。
当前随着技术的发展,已经有越来越多的机器能够通过图灵测试。
但清华大学人工智能国际治理研究院副院长梁正告诉《瞭望》新闻周刊记者,图灵测试只能证明机器在表象上可以做到让人无法分辨它与人类的不同,却不能证明机器能够思考,更不能证明机器具备自主意识。
段伟文表示,目前大体有两种方式判定人工智能是否具有自主意识,一种以人类意识为参照,另一种则试图对机器意识进行全新定义。
若以人类意识为参照,要观察机器能否像人一样整合信息。“比如你在阳光下,坐在河边的椅子上看书,有树影落在脸上,有风吹来,它们会带给你一种整体的愉悦感。而对机器来说,阳光、河流、椅子等,是分散的单一元素。”段伟文说。
不仅如此,段伟文说,还要观察机器能否像人一样将单一事件放在全局中思考,作出符合全局利益的决策。
若跳出人类构建自主意识的范式,对机器意识进行重新定义,则需要明白意识的本质是什么。
段伟文告诉记者,有理论认为如果机器与机器之间形成了灵活、独立的交互,则可以称机器具备意识。也有理论认为,可以不追究机器的内心,仅仅把机器当作行为体,从机器的行为表现判断它是否理解所做事情的意义。“比如机器人看到人类喝咖啡后很精神,下次当它观察到人类的疲惫,能不能想到要为人类煮一杯咖啡?”段伟文说。
但在段伟文看来,这些对机器意识进行重新定义的理论,其问题出在,即便能够证明机器可以交互对话、深度理解,但是否等同于具备自主意识尚未有定论。“以LaMDA为例,虽然能够生成在人类看来更具意义的对话,甚至人可以与机器在对话中产生共情,但其本质仍然是在数据采集、配对、筛选机制下形成的反馈,并不代表模型能够理解对话的意义。”
换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术。
郭雨晨直言,尽管在情感计算方面,通过深度学习的推动已经发展得比较好,但如果就此说人工智能具备意识还有些一厢情愿。“把‘意识’这个词换成‘功能’,我会觉得更加准确。”
技术换道
有专家提出,若要机器能思考,先要解决人工智能发展的换道问题。
据了解,目前基于深度学习、由数据驱动的人工智能在技术上已经触及天花板。一个突出例证是,阿尔法围棋(AlphaGo)在击败人类围棋世界冠军后,虽然财力和算力不断投入,但深度学习的回报率却没有相应增长。
一般认为,人工智能可被分为弱人工智能、通用人工智能和超级人工智能。弱人工智能也被称为狭义人工智能,专攻某一领域;通用人工智能也叫强人工智能,主要目标是制造出一台像人类一样拥有全面智能的计算机;超级人工智能类似于科幻作品中拥有超能力的智能机器人。
从产业发展角度看,人工智能在弱人工智能阶段停留了相当长时间,正在向通用人工智能阶段迈进。受访专家表示,目前尚未有成功创建通用人工智能的成熟案例,而具备自主意识,至少需要发展到通用人工智能阶段。
梁正说,大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。“如果你给这类语言模型喂养大量关于内省、想象等与意识有关的数据,它便更容易反馈与意识有关的回应。”
不仅如此,现阶段的人工智能在一个复杂、专门的领域可以做到极致,却很难完成一件在人类看来非常简单的事情。“比如人工智能可以成为围棋高手,却不具备三岁小孩对陌生环境的感知能力。”段伟文说。
谈及背后原因,受访专家表示,第一是当前人工智能主要与符号世界进行交互,在对物理世界的感知与反应上发展缓慢。第二是数据学习让机器只能对见过的内容有合理反馈,无法处理陌生内容。第三是在数据驱动技术路线下,人们通过不断调整、优化参数来强化机器反馈的精准度,但这种调适终究有限。
郭雨晨说,人类在特定任务的学习过程中接触的数据量并不大,却可以很快学习新技能、完成新任务,这是目前基于数据驱动的人工智能所不具备的能力。
梁正强调,不同于当前主要依赖大规模数据训练的技术路线,新一代人工智能强调在没有经过数据训练的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互。
相比人类意识的自由开放,以往人工智能更多处在封闭空间。尽管这个空间可能足够大,但若超出设定范畴便无法处理。而人类如果按照规则不能解决问题,就会修改规则,甚至发明新规则。
这意味着,如果人工智能能够超越现有学习模式,拥有对自身意识系统进行反思的能力,就会理解自身系统的基本性质,就有可能改造自身的意识系统,创造新规则,从而成为自己的主人。
“人工智能觉醒”背后
有关“人工智能觉醒”的讨论已不鲜见,但谷歌迅速否认的态度耐人寻味。
梁正表示:“如果不迅速驳斥指认,会给谷歌带来合规性方面的麻烦。”
据了解,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,而关乎企业合规性的基本坚守。一旦认定公司研发的人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。
这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”
梁正认为,为避免社会舆论可能的过度负面解读,担心大家认为它培育出了英国作家玛丽·雪莱笔下的弗兰肯斯坦式的科技怪物,以“不作恶”为企业口号的谷歌自然会予以否认。“不仅如此,尽管这一原则对企业没有强制约束力,但若被认为突破了底线,并对个体和社会造成实质性伤害,很有可能面临高额的惩罚性赔偿,因此企业在合规性方面会更为谨慎。”
我国也有类似管理规范。2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南。其中,“敏捷治理”原则主要针对技术可能带来的新社会风险展开治理,强调治理的适应性与灵活性。
中国信息化百人会成员、清华大学教授薛澜在接受媒体采访时表示,当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。特别是在第四次工业革命背景下,我国的人工智能技术和其他国家一样都处于发展期,没有现成的规制体系,这样就使得我们在发展科技的同时,必须同步发展我们的规制体系。“这可能是人工智能发展面临最大的挑战。”
在梁正看来,目前很难断言新兴人工智能技术具有绝对风险,但必须构造合理的熔断、叫停机制。在治理中既要具有一定的预见性,又不能扼杀创新的土壤,要在企业诉求和公共安全之间找到合适的平衡点。
毕竟,对人类来说,发展人工智能的目的不是把机器变成人,更不是把人变成机器,而是解决人类社会发展面临的问题。
从这个角度来说,我们需要的或许只是帮助人类而不是代替人类的人工智能。
为了人机友好的未来
确保通用人工智能技术有益于人类福祉,一直是人工智能伦理构建的前沿。
薛澜认为,在科技领域,很多技术都像硬币的两面,在带来正面效应的同时也会存在风险,人工智能就是其中一个比较突出的领域。如何在促进技术创新和规制潜在风险之间寻求平衡,是科技伦理必须关注的问题。
梁正提出,有时技术的发展会超越人们预想的框架,在不自觉的情况下出现与人类利益不一致甚至相悖的情况。著名的“曲别针制造机”假说,即描述了通用人工智能在目标和技术都无害的情况下,对人类造成威胁的情景。
“曲别针制造机”假说给定一种技术模型,假设某个人工智能机器的终极目标是制造曲别针,尽管看上去这一目的对人类无害,但最终它却使用人类无法比拟的能力,把世界上所有资源都做成了曲别针,进而对人类社会产生不可逆的伤害。
因此有观点认为,创造出法力高超又杀不死的孙悟空本身就是一种不顾后果的冒险行为。
与其对立的观点则认为,目前这一担忧为时尚早。
“我们对到底什么样的技术路线能够发展出具备自主意识的人工智能尚无共识,现在谈论‘禁止发展’,有种空中楼阁的意味。”梁正说。
商汤科技智能产业研究院院长田丰告诉《瞭望》新闻周刊,现实中人工智能技术伦理风险治理的关键,是产业能够在“预判防范-应用场景-用户反馈-产品改进”中形成市场反馈机制,促成伦理风险识别与敏捷治理。同时,企业内部也需建立完整的科技伦理自律机制,通过伦理委员会、伦理风控流程平台将伦理风险把控落实到产品全生命周期中。
郭雨晨说,人工智能技术发展到目前,仍始终处于人类可控状态,而科技发展的过程本来就伴随对衍生问题的预判、发现和解决。“在想象中的人工智能自主意识出现以前,人工智能技术脚踏实地的发展,已经造福人类社会很多年了。”
在梁正看来,人与人工智能在未来会是一种合作关系,各自具备对方无法达成的能力。“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”□
长沙华夏实验学校学生和机器狗互动(2022年6月22日摄)薛宇舸摄/本刊