看著上面的圖片人類可以很容易的描述出“這是一個正在騎摩托車的人”、“三條狗在草地上奔跑”,但如果想讓電腦“看”完圖片之后能自動給出一段這樣的概述就不是一件容易事了,而現(xiàn)在Google卻已經做到了。
按照Google的說法,通過自行開發(fā)的機器學習系統(tǒng),它們現(xiàn)在已經可以用自動化的方式來為圖片添加自然語言描述。這項技術不但有望讓那些對顏色不敏感的人群可以快速理解圖片中的內容,也可以在網絡狀況不好的情況下用文本來暫時替代圖片顯示;當然,更重要的是它還可以讓Google的圖片搜索功能更強大。
在以前,業(yè)界在用計算機對圖片進行自然語言描述時基本使用的都是計算機視覺和自然語言處理技術;但現(xiàn)在得益于機器翻譯技術的進步,通過遞歸神經網絡(RNN)轉換,機器可以先把法語轉換成一個矢量,接著另外一個RNN用戶就可以通過這個矢量把法語轉換成德語;這樣Google只要能用另外一種具備圖片識別能力的神經網絡(卷積神經網絡,CNN)替換掉第一個RNN就可以得到一句能描述圖片的自然語言了。
所以整個自然語言的生成過程就是由讀取視覺的神經網絡CNN到產生語言的神經網絡RNN,進而最終得到一句自然語言。Google方面的測試顯示,這項技術的整體效果表現(xiàn)還不錯。當然,我們從第一張圖中也可以看到這其中是會出現(xiàn)一些小錯誤甚至完全不準確的情況,不過隨著數(shù)據(jù)集的增加和成熟,整體的精確度會越來越高。
其實,早在今年6月份時,Google就發(fā)過一篇博客闡述它們是如何讓用戶可以根據(jù)圖片中的內容來搜索;在9月份時,Google又更新了它們在圖像中物體識別、分類和標記方面的進展。如今到了11月,Google在這方面的技術又有了新的突破。不難看出,最終機器將會更了解圖片,而人們也會更容易找到自己想要的圖片。
- 英偉達驅動黑屏門:Win10/11用戶警惕!572.83驅動帶來新風險
- Meta Llama 4 AI大語言模型本月面世,改進推理能力仍需加強
- 滴滴外賣在巴西重啟業(yè)務:70萬騎手助力,外賣市場能否再掀波瀾?
- AI代碼生成:2030年,95%的代碼將由AI生成,程序員何去何從?
- SpaceX載人繞飛任務圓滿結束,機組安全返回地球,揭開宇宙新篇章
- TikTok風波再起!特朗普發(fā)聲,字節(jié)跳動回應,利益之爭引發(fā)全球關注
- 比亞迪整合五大子品牌為APP,打造一站式車主服務平臺,體驗升級中!
- 谷歌預警:警惕AI安全風險,公開防御藍圖
- 比亞迪起訴自媒體“智能EVO”:維權行動揭開名譽侵權黑幕
- 小米紙扎版SU7專利爆光,網友笑稱清明節(jié)新爆款
免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。