AI 時(shí)代下的產(chǎn)品思維(一):AI不是神
本文講述了AI 產(chǎn)品常出現(xiàn)的問題,并從中窺見背后的AI 產(chǎn)品思維。
目錄:
- 序:產(chǎn)品思維
- 一、普遍問題
- 二、AI無(wú)神通
- 三、機(jī)遇與挑戰(zhàn)
- 后記:PDF資料
首先要問一下,什么是產(chǎn)品思維呢?
簡(jiǎn)單的說,產(chǎn)品思維就是產(chǎn)品經(jīng)理在打造產(chǎn)品時(shí)的思考方式。
說到這個(gè)詞,可能很多人都會(huì)聯(lián)想到梁寧在“得到”上的《產(chǎn)品思維30講》的課程。
梁寧老師為大眾科普了產(chǎn)品經(jīng)理的思維方式。但是真正的產(chǎn)品經(jīng)理,光學(xué)習(xí)科普知識(shí)還是不夠的,更需要深入專業(yè)和實(shí)戰(zhàn)。雖然很多企業(yè)都設(shè)置有產(chǎn)品專員的崗位,但可能由于職業(yè)分工的限制,培養(yǎng)效果并不好。反而那些由優(yōu)秀的設(shè)計(jì)師、程序員和運(yùn)營(yíng)轉(zhuǎn)崗的產(chǎn)品經(jīng)理,往往表現(xiàn)得更加出色。
究其原因,產(chǎn)品經(jīng)理本身就是一個(gè)綜合性極強(qiáng)的崗位,優(yōu)秀的產(chǎn)品經(jīng)理不是學(xué)出來(lái)的,而是“打”出來(lái)的。關(guān)于產(chǎn)品經(jīng)理的成長(zhǎng)可以看之前文章:《我的產(chǎn)品經(jīng)理能力模型和成長(zhǎng)之路》
也有人說,產(chǎn)品經(jīng)理是CEO的預(yù)備班,像馬斯克、貝索斯、喬布斯、雷軍、馬化騰、張小龍,不僅僅是卓越的產(chǎn)品經(jīng)理,還是優(yōu)秀的企業(yè)家。
那產(chǎn)品經(jīng)理需要怎么樣的思維方式呢?
產(chǎn)品經(jīng)理本質(zhì)上負(fù)責(zé)的就是企業(yè)的產(chǎn)品創(chuàng)新。國(guó)際著名的設(shè)計(jì)咨詢公司IDEO,曾對(duì)于“創(chuàng)新”有這樣的定義,所謂“創(chuàng)新”就是要平衡人、商業(yè)、技術(shù)三方面因素,IDEO稱之為Design Thinking:
- 人的渴望:解決用戶的需求,讓產(chǎn)品擁有良好的體驗(yàn),比現(xiàn)有的解決方案要好上 10 倍;
- 商業(yè)的可行性:需要充分的考慮到商業(yè)價(jià)值,能夠不斷為企業(yè)創(chuàng)造收益;
- 技術(shù)的可實(shí)現(xiàn)性:使用合適的技術(shù)手段保質(zhì)保量的實(shí)現(xiàn)產(chǎn)品功能;
產(chǎn)品思維就是創(chuàng)新的思維,Design Thinking也是我這些年來(lái)在產(chǎn)品崗位的最底層思維模式。不管產(chǎn)品經(jīng)理是什么崗位出身,評(píng)判他是否專業(yè),就在于他如何能平衡好三者之間的關(guān)系。
如今,AI 毫無(wú)疑問是當(dāng)下炙手可熱的話題,許多產(chǎn)品也逐步的 AI 化。AI 時(shí)代的產(chǎn)品思維究竟有怎么樣的不同?
在寫這個(gè)話題之前,我也看過一些AI產(chǎn)品的書籍,大多都在講概念,講如何解決問題的偏少。而我的初心也很簡(jiǎn)單,通過總結(jié)我在實(shí)踐中踩的一些坑,和大家一起去發(fā)現(xiàn)與以往不一樣的產(chǎn)品思維。少談一些概念,多談一些思路,也是我寫此文的一個(gè)目標(biāo)。
Part .1 普遍性問題
在AI產(chǎn)品的實(shí)踐過程中,我們發(fā)現(xiàn)事情并沒有那么簡(jiǎn)單。我們遇到了諸多的問題和挑戰(zhàn)。如果要使用AI,我們首先需要先將AI請(qǐng)下神壇,破除對(duì)它的迷信。當(dāng)下的AI產(chǎn)品有三個(gè)較為普遍性的問題:容易偏離、可解釋性弱、可靠性差。
1. 容易偏離
2016年3月26日,微軟發(fā)布了一個(gè)聊天機(jī)器人 Tay。微軟原本是想讓 Tay 扮演一個(gè)少女角色,能夠在線與 Twitter 上面的任何人進(jìn)行交流。除了聊天,Tay 還能完成向用戶講笑話、對(duì)用戶發(fā)給“她”的照片進(jìn)行評(píng)論等其他任務(wù)。
剛上線的時(shí)候,Tay 說:“世界你好!”并且@網(wǎng)友說:“見到你們太激動(dòng)啦,人類超酷的”,但只用了一天的時(shí)間從“純情少女”變?yōu)榉慈祟惖摹凹{粹”,微軟在上線 16 小時(shí)之后就不得不把 Tay 下線。
可以確定的是,工程師在編程時(shí)并沒有為她編入這些亂七八糟的極端言論。那為什么會(huì)產(chǎn)生如此的錯(cuò)誤?其原因是少數(shù)用戶利用 Tay 模仿說話的漏洞,對(duì) Tay 進(jìn)行了錯(cuò)誤的訓(xùn)練。
Tay 仿佛一面鏡子,她反應(yīng)的不是微軟的技術(shù),而是網(wǎng)友的人性的惡的一面。在面對(duì)真實(shí)世界的時(shí)候,即使是有最先進(jìn)算法的機(jī)器人也會(huì)措手不及。
2. 可解釋性弱
2017 年 6 月,F(xiàn)acebook 人工智能研究所(FAIR)使用機(jī)器學(xué)習(xí)方法,對(duì)兩個(gè)聊天機(jī)器人進(jìn)行對(duì)話策略的迭代升級(jí),F(xiàn)acebook 的人工智能研究院 (FAIR) 想要訓(xùn)練一個(gè)聊天機(jī)器人,讓它學(xué)會(huì)談判。但很快,研究人員就發(fā)現(xiàn),聊天機(jī)器人正在創(chuàng)造他們?nèi)祟悷o(wú)法理解的語(yǔ)言。
同年 7 月,F(xiàn)acebook“關(guān)閉”了這個(gè)引發(fā)廣泛爭(zhēng)議的智能對(duì)話機(jī)器人項(xiàng)目,避免機(jī)器人“非人”的道路上越走越遠(yuǎn)。Facebook 的這個(gè)機(jī)器人使用的生成式對(duì)抗網(wǎng)絡(luò)(GAN, Generative Adversarial Networks )是一種深度學(xué)習(xí)模型。這個(gè)模型至少兩個(gè)模塊,通過互相博弈學(xué)習(xí)產(chǎn)生良好的輸出。一個(gè)優(yōu)秀的 GAN 應(yīng)用需要有良好的訓(xùn)練方法,否則可能由于神經(jīng)網(wǎng)絡(luò)模型的自由性而導(dǎo)致輸出不理想。由于深度學(xué)習(xí)是一個(gè)黑盒,研究人員無(wú)法像傳統(tǒng)程序員一樣通過修改代碼邏輯來(lái)改 bug,只能暫停項(xiàng)目,重新設(shè)計(jì)模型方案,盡可能避免同類問題的發(fā)生。
3. 可靠性差
Uber 為了加快商業(yè)化的步伐,其測(cè)試的無(wú)人駕駛汽車數(shù)量就不斷增加。2018 年 3 月 26 日,一輛 L4 自動(dòng)駕駛汽車(改造于沃爾沃 XC90)在亞利桑那州的公共道路上撞擊一位行人并致其死亡。這也是世界首例 L4 車輛因車禍致人死亡事件。
在汽車界,通常將自動(dòng)駕駛分類六級(jí),分別是:L0 是無(wú)智能、L1 輔助駕駛、L2 部分自動(dòng)駕駛、L3 條件自動(dòng)駕駛、L4 高度自動(dòng)駕駛、L5 完全自動(dòng)駕駛。
自動(dòng)駕駛汽車需要有一堆復(fù)雜的設(shè)備做支撐。只要有一個(gè)模塊出問題,就可能釀成大錯(cuò)。
根據(jù)美國(guó)國(guó)家交通管理局NTSB認(rèn)為,該車禍的主要原因?yàn)閁ber淡薄的安全意識(shí),車輛沒有開啟緊急制動(dòng)系統(tǒng),沒有及時(shí)對(duì)安全員進(jìn)行監(jiān)督————事故發(fā)生時(shí),車上安全員仍在看視頻而非及時(shí)采取措施。導(dǎo)致了這場(chǎng)悲劇。
近幾年,特斯拉也事故頻發(fā),盡管如此,依然經(jīng)常會(huì)聽到,駕駛員在開著自動(dòng)駕駛睡著飆車的新聞。下圖為一個(gè)用戶喝醉后開著特斯拉的自動(dòng)巡航,在邊睡覺邊在高速上狂奔。
現(xiàn)實(shí)不是游戲,當(dāng)“無(wú)知”的人類將生命交給 AI 的時(shí)候,他們是否意識(shí)到:萬(wàn)一系統(tǒng)出了 bug ,生命再也無(wú)法重來(lái)?在那些講給投資人故事之外,可能自動(dòng)駕駛拷問的并不是技術(shù),而是資本與人性的貪婪。
Part.2 AI無(wú)神通
上面提到的問題只是冰山一角。Al 也并非沒有優(yōu)勢(shì),機(jī)器可接受的輸入數(shù)據(jù)范圍要比人類大得多,計(jì)算機(jī)處理數(shù)據(jù)能力比人類強(qiáng)大。視覺識(shí)別和語(yǔ)音識(shí)別等一些領(lǐng)域,AI 幾乎達(dá)到了人類水平。
但AI 依舊難以達(dá)到智能生命體一樣的智能。究其原因,計(jì)算機(jī)初衷是為了解決邏輯計(jì)算問題,而智慧生命體的智能是通過上千萬(wàn)年進(jìn)化習(xí)得的。前者善于邏輯計(jì)算,后者善于適應(yīng)環(huán)境。
而如今人工智能卻越來(lái)越多地在模擬人類的本能行為,才導(dǎo)致“莫拉維克悖論”也愈發(fā)明顯。
莫拉維克悖論是指:
人類所獨(dú)有的高階智慧能力只需要非常少的計(jì)算能力,例如推理,但是無(wú)意識(shí)的技能和直覺卻需要極大的運(yùn)算能力。也就是,要讓電腦如成人般地下棋是相對(duì)容易的,但是要讓電腦有如一歲小孩般的感知和行動(dòng)能力卻是相當(dāng)困難甚至是不可能的。
其實(shí),AI的底層只是數(shù)據(jù)和算法。多數(shù) AI 模型解決是特定領(lǐng)域的分類和聚類的問題,這可以類比人類的歸納法和演繹法。
由于機(jī)器缺乏對(duì)事物理解能力,導(dǎo)致應(yīng)變能力和遷移能力非常弱,AI 并不會(huì)像人類真正體會(huì)到事物背后的含義。
AI 能將廣告上的董明珠,誤判為亂穿馬路的行人,也不足為奇。因?yàn)閺臄?shù)據(jù)角度,AI確實(shí)在馬路上捕捉到了人臉。
另外,機(jī)器也不會(huì)有情感感受。例如,AI可以識(shí)別出一只貓,它可以給這張圖打上一堆的標(biāo)簽,但并不會(huì)像人類一樣,覺得這只小貓有多么的可愛。
有許多藝術(shù)家開始使用所謂的“神經(jīng)網(wǎng)絡(luò)軟件”來(lái)創(chuàng)作藝術(shù)品,也有些以天價(jià)拍賣,但AI只是藝術(shù)家的創(chuàng)作工具,他們通過導(dǎo)入訓(xùn)練素材,不斷調(diào)整參數(shù)來(lái)獲得作品,本質(zhì)上和 用3ds Max做效果圖渲染沒太大區(qū)別。所以,也不代表AI有創(chuàng)作力。
現(xiàn)階段,AI 做不了事情還有很多。它只是一個(gè)工具,脫離了人類,AI什么也不是。人類也不用擔(dān)心 AI 像電影中講的那樣反叛和統(tǒng)治人類。
Part.3 機(jī)遇與挑戰(zhàn)
有學(xué)者分析了未來(lái) 10 年內(nèi),各行各業(yè)被 AI 取代概率。自工業(yè)革命以來(lái),人類從未被如此大規(guī)模的被機(jī)器取代。
雖然看上去有點(diǎn)嚇人,但對(duì)于 AI 產(chǎn)品創(chuàng)業(yè)者來(lái)說卻是一個(gè)不錯(cuò)的機(jī)遇,但把握住這個(gè)機(jī)遇并非易事。很多時(shí)候,新技術(shù)的應(yīng)用并不會(huì)一帆風(fēng)順。
根據(jù)高德納總結(jié)的“新興技術(shù)炒作周期”規(guī)律,新技術(shù)往往會(huì)經(jīng)歷萌芽期、膨脹期、破滅期、爬升期、穩(wěn)定期,5個(gè)階段。
歷史上,人工智能的命運(yùn)也是“三起兩落”。接下去是否會(huì)迎來(lái)新的寒冬,誰(shuí)也不知道。
但是我們把不成熟的新技術(shù)放置使用到產(chǎn)品中,對(duì)產(chǎn)品經(jīng)理本身就是一個(gè)巨大的挑戰(zhàn)。
在當(dāng)下,我們不應(yīng)過于理想化AI的能力,我們更需要用冷靜和批判性的眼光,去審視 AI 技術(shù)的發(fā)展和應(yīng)用。
當(dāng)我們遇到一個(gè)與AI相關(guān)需求的時(shí)候,與其陶醉于自我,不如提出質(zhì)疑反而會(huì)顯得更加有用:如果AI技術(shù)實(shí)現(xiàn)得不好怎么辦?
究竟要怎么辦?請(qǐng)看下一期:AI時(shí)代的產(chǎn)品思維(二):新的挑戰(zhàn)
#專欄作家#
PM熊叔,微信公眾號(hào):PM熊叔,人人都是產(chǎn)品經(jīng)理專欄作家。教育類產(chǎn)品產(chǎn)品經(jīng)理出身,學(xué)過設(shè)計(jì),做過開發(fā),做過運(yùn)營(yíng)的產(chǎn)品經(jīng)理。
本文原創(chuàng)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)許可,禁止轉(zhuǎn)載
題圖來(lái)自 Unsplash,基于 CC0 協(xié)議
ai,區(qū)塊鏈,從來(lái)不看好