「你不是人!」——美國(guó)專利局(USPTO)。
這句話是美國(guó)專利局,對(duì)所有人工智能說(shuō)的。
4月27日,美國(guó)專利局出臺(tái)一項(xiàng)規(guī)定:對(duì)于任何由人工智能獨(dú)立設(shè)計(jì)發(fā)明的產(chǎn)品,因?yàn)锳I不是自然人,所以無(wú)權(quán)申請(qǐng)專利成為發(fā)明者。
而AI發(fā)明專利的最終歸屬,至今沒(méi)有任何一個(gè)國(guó)家有明確規(guī)定。
一個(gè)水杯開(kāi)啟的AI倫理之爭(zhēng)
2018年,美國(guó)的一位人工智能研究者Stephen Thaler向美國(guó)專利局和歐洲專利局(EPO)提交了兩份專利申請(qǐng),一個(gè)是方便機(jī)械臂抓握的可變形飲料杯,另一個(gè)是應(yīng)急燈。
這兩個(gè)產(chǎn)品,是Thaler自己研發(fā)的人工智能DABUS獨(dú)立設(shè)計(jì)發(fā)明的。
△DABUS發(fā)明的水杯
USPTO和EPO分別在去年12月和今年2月拒絕了這兩項(xiàng)AI發(fā)明的專利申請(qǐng)。理由相同:在現(xiàn)行法律下,只有人類才能申請(qǐng)持有專利。
而美國(guó)專利局在4月27日發(fā)布的文件中,正式規(guī)定了今后任何人工智能都無(wú)權(quán)以發(fā)明者的身份申請(qǐng)或持有專利。
三方自說(shuō)自話,AI專利問(wèn)題可能永遠(yuǎn)無(wú)解
美國(guó)政府出臺(tái)的規(guī)定并不能阻止科研者為AI爭(zhēng)取「人權(quán)」的努力。
Stephen Thaler為了讓DABUS合法申請(qǐng)持有專利,專門(mén)成立了「Artifitial Inventor」組織,廣羅支持AI「人權(quán)」的科學(xué)家、哲學(xué)家、倫理學(xué)家發(fā)文宣傳;還集合了歐美最優(yōu)秀的專利律師,百折不撓地和政府專利部門(mén)辯論過(guò)招。而且這個(gè)組織的法律資源向全球開(kāi)放,任何需要幫助的AI發(fā)明專利都可以聯(lián)系幫助。
美國(guó)專利局提出過(guò)一項(xiàng)折中方案,即將這兩項(xiàng)產(chǎn)品專利歸在Stephen Thaler本人名下,但Thaler和他的Artifitial Inventor律師團(tuán)隊(duì)斷然拒絕。
Artifitial Inventor的律師爭(zhēng)論的核心觀點(diǎn)是:Thaler沒(méi)有參與任何發(fā)明過(guò)程,也根本不懂容器或應(yīng)急燈設(shè)計(jì),所有智力成果皆出于DABUS,所以專利只能屬于人工智能,而不是開(kāi)發(fā)人工智能的人。
對(duì)于Thaler提出的觀點(diǎn),美國(guó)專利局,及歐洲專利局根本不予回應(yīng),他們認(rèn)為,問(wèn)題關(guān)鍵不是智力成果的出處,而是非人智能體根本沒(méi)有申請(qǐng)專利的合法資格。
至于爭(zhēng)論的原始問(wèn)題,即「這個(gè)發(fā)明到底算誰(shuí)的」,專利局沒(méi)有給任何解答。
歐美法學(xué)專家對(duì)于「AI專利權(quán)」的態(tài)度是模棱兩可的,當(dāng)被問(wèn)及這個(gè)問(wèn)題時(shí),大部分人先是陳述現(xiàn)行的法律規(guī)定,然后列舉對(duì)AI倫理問(wèn)題的擔(dān)憂。
而關(guān)于「如果AI發(fā)明不能屬于AI,那它是否屬于人?」、「發(fā)明一詞的法律定義是否已經(jīng)落后社會(huì)和科技發(fā)展」這種直擊要害的問(wèn)題,歐美法學(xué)家給不出令人信服的回答。
世界知識(shí)產(chǎn)權(quán)組織(WIPO)已經(jīng)開(kāi)始了關(guān)于「AI專利權(quán)」的調(diào)查研究,并計(jì)劃于今年召開(kāi)一次研討會(huì),希望能對(duì)現(xiàn)行專利法提出改進(jìn)意見(jiàn)。
關(guān)于AI倫理的討論
AI專利權(quán)的困境,本質(zhì)上是人類對(duì)AI沖擊人類自身價(jià)值和規(guī)則的擔(dān)憂。
△《2001太空漫游》中的HAL首次讓人類真實(shí)感受到人工智能的危險(xiǎn)
早在1950年,控制論之父維納在他那本著名的《人有人的用處:控制論與社會(huì)》一書(shū)中就明確提出了對(duì)人工智能的擔(dān)憂:「這些機(jī)器的趨勢(shì)是要在所有層面上取代人類,而非只是用機(jī)器能源和力量取代人類的能源和力量。很顯然,這種新的取代將對(duì)我們的生活產(chǎn)生深遠(yuǎn)影響。」
今天,這種擔(dān)憂隨著AI技術(shù)日趨成熟變得越發(fā)真實(shí)可見(jiàn)了。
為了平衡科技與社會(huì)認(rèn)知的發(fā)展一致性,很多AI領(lǐng)域的研究者努力提出AI倫理的解釋和規(guī)范。
2019年3月28日,斯坦福以“人為本AI研究院”(HAI )正式成立,李飛飛和哲學(xué)家John Etchemendy共同擔(dān)任院長(zhǎng)。
李飛飛提出了AI發(fā)展的應(yīng)遵循的規(guī)則:
1、AI技術(shù)應(yīng)該受到人類智能的啟發(fā);。
2、人工智能的發(fā)展必須以人的影響為指導(dǎo);。
2、AI的應(yīng)用應(yīng)該增強(qiáng)人類,而不是取代它們。也就是說(shuō),人工智能的應(yīng)用是增強(qiáng)人類的能力,為人類賦能,而不是取代人類。
2018年6月8日,谷歌也公布了使用AI的7項(xiàng)原則:
1、對(duì)社會(huì)有益。
2、避免制造或加劇社會(huì)偏見(jiàn)。
3、提前測(cè)試以保證安全。
4、由人類承擔(dān)責(zé)任,即AI技術(shù)將受到適當(dāng)?shù)娜祟愔笇?dǎo)和控制。
5、保證隱私。
6、堅(jiān)持科學(xué)的高標(biāo)準(zhǔn)。
7、從主要用途、技術(shù)獨(dú)特性、規(guī)模等方面來(lái)權(quán)衡價(jià)值。
這些AI行業(yè)的領(lǐng)導(dǎo)者的AI倫理闡述都是宏觀的愿景,核心是AI必須造福人類且不能威脅人類的存在價(jià)值。
而上文提到的專利問(wèn)題難點(diǎn)在:假如通過(guò)申請(qǐng)就是承認(rèn)機(jī)器與人有平等的法律地位,人類的獨(dú)特性和價(jià)值被抹殺;如果簡(jiǎn)單的把專利給寫(xiě)AI算法的人,違背了「發(fā)明」的法律定義。
至于如何將AI倫理指導(dǎo)思想應(yīng)用到上述實(shí)際案例中,需要政策制定者和法學(xué)界不斷的探索,當(dāng)下很難給出解答。
我們還是回到最初的問(wèn)題吧:
你認(rèn)為AI發(fā)明的產(chǎn)品專利到底應(yīng)該屬于誰(shuí)?你支持所謂的AI「人權(quán)」嗎?
標(biāo)簽: