<label id="jgr5k"></label>
    <legend id="jgr5k"><track id="jgr5k"></track></legend>

    <sub id="jgr5k"></sub>
  1. <u id="jgr5k"></u>
      久草国产视频,91资源总站,在线免费看AV,丁香婷婷社区,久久精品99久久久久久久久,色天使av,无码探花,香蕉av在线
      您正在使用IE低版瀏覽器,為了您的雷峰網賬號安全和更好的產品體驗,強烈建議使用更快更安全的瀏覽器
      此為臨時鏈接,僅用于文章預覽,將在時失效
      人工智能 正文
      發私信給聰聰
      發送

      0

      悶聲狂奔一年,字節大模型的進階之路

      本文作者: 聰聰 2024-05-20 18:51
      導語:“大模型比行業便宜百倍,字節打的什么算盤?”

      2024 年初,字節跳動 CEO 梁汝波在年會中提到,公司層面的半年度技術回顧里,2023 年才出現 GPT 相關討論。作為對比,業內做得比較好的大模型創業公司基本在 2018 年到 2021 年之間已經創立。

      一位字節員工曾告訴雷峰網(公眾號:雷峰網),直到 2023 年 2 月,字節才開始探索大模型。彼時,國內一些更早入局的大廠甚至已經準備對外發布大模型。

      簡而言之,這場由 Open AI 在 2022 年底發布 ChatGPT 3.5 而掀起的“大模型”盛宴,字節沒有成為最早的“入場嘉賓”。

      過去一年多的時間里,字節在 AI,尤其是自研大模型領域,始終頗為低調,但這并不妨礙業內的期待。不少從業者在被問及最看好國內哪家公司的大模型產品時,都曾向雷峰網提及字節。

      其中原因也不難理解,無論從人才密度、GPU 資源,還是技術積累各個層面,字節都有著足夠的優勢。誠然,字節不是最早參與到大模型研究的公司,但卻是為數不多在技術積累和 GPU 資源等維度都有著深厚積淀的公司。

      移動互聯網初期,今日頭條便通過對算法推薦的成熟應用,突破新聞門戶網站的束縛。從此,信息流產品成為各家互聯網公司追逐的模仿對象。

      在大模型訓練必不可少的 GPU 卡方面,雷峰網去年在字節的大模型野心,藏在一艘「方舟」里 已經提到,調研顯示,字節的 GPU 卡在目前國內眾多云廠商中排名 Top 3,并將其歸因于抖音業務推薦平臺的不斷升級,以及火山引擎使用抖音同源機器學習平臺對外服務的需求。

      如今,字節終于揭開自研大模型的“神秘面紗”。5月15日,火山引擎春季Force·原動力大會上,字節跳動首次對外正式發布自研大模型:豆包大模型(原云雀大模型)家族集體亮相。

      盡管不少圈內人已經聽聞字節的大模型或創新低價格,但當火山引擎總裁譚待正式對外宣布價格時,豆包大模型還是給 AI 界來了一點小小的“字節式”震撼。

      悶聲狂奔一年,字節大模型的進階之路

      火山引擎春季Force·原動力大會現場,參會者爭相拍攝豆包大模型價格

      大模型競爭的本質是終端心智和應用場景多元化

      年初有媒體發文指出:“抖音旗下的 AIGC 應用豆包月活 1756.9 萬,超越 1212.5 萬月活的文心一言。”

      根據 QuestMobile 最新數據,2024 年 3 月,豆包月活用戶已達到 2328.2 萬,甩開文心一言近千萬。文心一言以及天工、訊飛星火、Kimi智能助手月活躍用戶分別為1466.1萬、966.1萬、620.4萬、589.7萬。

      當時,本文作者身邊也看到過不少安利豆包產品的用戶。部分帶娃家長直言:“豆包太有趣了,現在孩子每晚回來都要跟豆包對話一會兒,問各種問題。”

      移動互聯網時代,字節跳動做出了今日頭條、抖音這樣的全民產品;大模型浪潮起來以后,不少人都坐等一個 AI 時代的抖音。

      無論業內人士把大模型談的多“花”,其歸根到底,還是要讓所有的普通人用起來,而不是僅限于圈內的狂歡。從這個角度來看,大模型競爭的本質,是終端心智的爭奪。

      就眼下的情況來看,豆包毫無疑問有這個潛力和機會。這款去年才推出的產品,僅僅用不到一年就已經顯示出在同類產品中強大的競爭力。

      在 5 月 15 號的火山引擎春季Force·原動力大會上,字節跳動產品與戰略副總裁朱駿分享了豆包 APP 的一些趣事和思考。

      比如,關于這個看起來一點“科技感”沒有的名字,有用戶解釋為抖音的官方bot——“抖bot”的諧音;還有用戶解釋為“都包了”,工作生活學習的需求都包了。

      以至于后來,在被問到豆包名字的含義,朱駿也會用這兩個答案。

      實際上,正式命名以前,字節的大模型團隊有一個期望,產品的名字,能夠像用戶對一個親密朋友日常稱呼的昵稱。在這個方向下,團隊列了很多名字,很快選中豆包。朱駿風趣地說到:“反正以后如果有更好的名字也還可以改嘛。”

      用戶數方面,豆包官方數據顯示,其移動和桌面雙端月活躍用戶已經超過 2600 萬。同時,這些用戶共同創造了 800 多萬個智能體。

      發布會上,字節首次對外披露了其自研的底座大模型,取名為豆包大模型,也就是此前一直被外界提及的云雀大模型。

      悶聲狂奔一年,字節大模型的進階之路

      豆包大模型家族

      豆包 APP,只是豆包大模型應用的一個側面。

      基于豆包大模型,字節跳動還打造了 AI 應用開發平臺“扣子”、互動娛樂應用“貓箱”、AI 分身創作應用“星繪”等一系列產品。

      此外,抖音、番茄小說、飛書、巨量引擎等 50 余個業務也都已經接入豆包大模型,用以提升效率和優化產品體驗。這些產品中不乏億級的用戶和內容,抖音每天有 7 億多用戶以及豐富的圖文短視頻內容,番茄小說每天也有近 1 億用戶。

      這還僅僅是字節內部產品的使用。

      悄然間,OPPO小布助手、榮耀 MagicBook 的 YOYO 助理、華碩筆記本電腦豆叮AI助手、極氪汽車的座艙大模型等均已接入字節的大模型服務。

      基于豆包大模型,字節在今年2月上線了 AI 應用開發平臺“扣子”。僅僅三個月過去,招商銀行、海底撈火鍋、超級猩猩、獵聘、飛鶴等企業已經在扣子上搭建智能體并應用。復旦大學、浙江大學等名校也為課程和實驗室搭建了 AI“助教”。

      從 C 端的豆包 APP 用戶,到 B 端的千行百業,豆包大模型不僅使用量大,應用場景之豐富也可見一斑。根據火山引擎總裁譚待介紹,目前,豆包大模型日均處理文本 1200 億 Tokens,生成 3000 萬張圖片。

      業內普遍認為,一般而言,大模型的使用量越大,效果也就越好,這給了豆包大模型更大的底氣。“大的使用量,才能打磨出好模型。”譚待也直言。

      豆包“擊穿最低價”,大模型或將進入新浪潮

      無論是 C 端用戶使用體驗,還是 B 端應用場景,真正落地成為全民應用的基礎都需要足夠低的價格。

      這就好比,4G 網絡普及加速了流量成本降低,并促成智能手機的普及,又進一步加速了視頻等終端 APP 的爆發式增長。

      對于當下企業而言,使用大模型能夠促成效率的提升幾乎是確認的,但大模型的投入一直以來都非常大,而企業在投入一個新的創新領域時,必然首先要考慮成本問題。

      或許正是由于價格因素,過去一年多,大模型雖然引發了全行業的熱潮,但真正投入使用的仍然只有少數企業。

      在這一背景下,豆包大模型此次官宣的價格能夠成為行業焦點也就不足為奇了。

      5月15日的發布會上,譚待宣布豆包大模型價格的那一瞬間,掌聲響徹整個會場,也將這場發布會推向高潮。

      悶聲狂奔一年,字節大模型的進階之路

      火山引擎總裁譚待公布豆包大模型定價

      豆包大模型的價格有多驚人?

      豆包主力模型 Pro-32k 版本模型推理輸入價格只有 0.0008元/千Tokens,0.8 厘就能處理 1500 多個漢字,比行業同等模型便宜 99.3%;128k 型號價格為 0.005元/千Tokens,比行業價格低 95.8%。

      更形象的說法是,根據火山引擎公布的價格計算,以 Pro-32k 版本為例,一元錢就能買到 125 萬 Tokens,大約 200 萬個漢字,相當于三本《三國演義》。

      看到這樣的價格,不少人覺得,豆包大模型在“以虧損換市場”。但在會后的媒體采訪中,譚待表示:“用虧損換收入是不可持續的,我們從來不走這條路子。敢于定價這么低,是因為我們對優化推理成本的技術能力很有信心。”

      關于為什么定這樣的價格,譚待表示是基于兩方面因素:一是能做到,二是需要這么做。

      一方面,通過模型結構的優化、分布式推理、混合調度等舉措,極大壓低了大模型的推理成本。模型調用量越大,成本優化空間就越大。以字節業務為例,飛書的主要流量高峰在工作時間,抖音在下班后休閑時間的流量更高,這些不同業務的大模型推理,能根據業務特點錯峰使用,把資源利用率跑得很高,就可以降低成本。

      另一方面,今年以來,大模型能力得到極大提升以后,應用將是一個非常重要的環節。當下市場,很多企業有嘗試大模型的想法,但因為不確定性的風險,多少有些畏手畏腳。只有價格降低到一定程度,試錯成本足夠低,更多的企業才會加入到大模型的應用中。

      不久前,零一萬物 CEO 李開復表示,大模型推理成本每年降低十倍,這在過去兩年已經發生,優化得好更是可以降低二三十倍。

      看來,字節對模型推理成本優化的預期也是非常樂觀,降價所考慮的就是讓大模型盡快在更多應用場景落地。

      以大模型應用最廣泛的內容產業為例,視頻平臺往往需要在浩如煙海的劇本中,篩選出優質且適合轉換成影視項目的劇本。

      假設,現在某公司計劃利用大模型做一個 AI 劇本助手,幫助平臺把幾十萬字的劇本提煉出核心要點,并進一步評估劇本可行性。如果想打磨出足夠好的效果,可能需要 100 億 tokens 的推理輸入。過去,完成這一項目,負責人需要從公司申請 100 多萬預算,這對一個中小企業而言并不算少。現在,還是這件事,使用豆包大模型,則只需要 8000 塊錢。顯然,這是一個幾乎所有公司都能接受的價格。

      換言之,曾經,很多創意想法可能因為大模型應用成本被拒之門外;現在,豆包大模型將價格打下來以后,成本極低,企業和創業者們不再因此而受到束縛,就更有機會找到好的落地場景,整個行業的蛋糕也會越做越大,從而形成價格低→ 使用量大 →落地場景豐富→應用效果好的正向循環。

      經濟學上,有一個專業術語叫做規模經濟,意為在一定產量范圍內,伴隨產量增加,平均成本不斷降低的現象。其原因在于,產量增加會帶來一個結果,每多生產一單位產品的成本(邊際成本)不斷降低。

      回到科技領域,同樣存在類似的效應。互聯網出現以后,流量成本不斷降低,信息的分發成本幾乎接近 0,今日頭條、抖音都是其中的受益者。而現在,大模型正在加速 AI 應用的新一輪浪潮。

      a16z 的合伙人 Martin Casado 曾在演講中提到,從基本的經濟分析來看,大模型將創造的邊際成本降到了零,比如創建圖像和語言理解。

      業內都在期待大模型重塑互聯網產品,這一切的前提是,它的價格足夠低。現在,豆包大模型已經打了個樣。

      豆包“遇上”火山方舟,一場大模型的自我革新

      在驚訝于低價的同時,不少企業可能擔心模型的推理效果是否能夠滿足使用需求。

      關于這一點擔憂,其實答案在前文中已經有所暗示。不少用戶應該都已經使用過字節面向 C 端的 AIGC 產品豆包,效果如何相信每個人都有體會。若是效果不好,它的用戶數也不可能在短短一年間沖到同行業產品 TOP1。

      又如,字節最近推出的 AI 分身創作產品星繪,大家也可以上手使用體驗。

      除了 AI 原生應用,抖音、今日頭條、飛書等不少字節的產品都大量的使用了大模型。今日頭條內嵌的 AI 工具不僅為用戶提供了對話功能,還有筆記創作、夢境解讀、創業指導等能力。

      如今,不少互聯網企業在發布大模型產品時,動輒喜歡加一句“超越 GPT 4”之類的說法。但整個發布會,豆包大模型都沒有提到 GPT,這反而顯示出譚待以及豆包整個團隊的自信。

      在被問及,豆包大模型和 Open AI、谷歌等海外公司的差別時,譚待笑著說道:“我可以很實事求是地講,openAI肯定還是全球第一, anthropic、Gemini 也都做得非常好,這個差距首先是要承認的。”

      與此同時,譚待也表示,雖然有差距,但是我們追的速度還是可以的。豆包的原生應用和體驗越來越好,用戶量也越來越大,這是比較重要的。一個最佳實踐是,越來越多的人去做更多的應用,反過來又可以驅動技術的進步,從而形成一個正循環。而這些,國內目前還沒有形成,但從今天以后,它可能會越來越快。

      除了豆包等 C 端大模型產品,字節跳動還針對大模型推出了新一代 AI 應用開發平臺——扣子專業版,具備低門檻、個性化、實時性、多模態等優勢,并集合海量的 AI 資源、豐富的發布 API 服務。招商銀行、海底撈等不少傳統企業,都成為扣子的用戶。

      基于扣子和豆包大模型,招商銀行搭建了可以推薦餐飲優惠門店的“掌上生活”bot,以及能匯總市場行情的“財富看點”bot。

      通過使用豆包大模型,海底撈搭建了顧客評價分析模型,并將其應用于服務質量、菜品質量、經營管理的優化迭代。

      在下午大消費分論壇上,海底撈信息科技部負責人楊炫之分享了海底撈的 AI 系統建設,他提到,AI 在餐飲企業的應用主要包括三方面,基于圖文作業的重復性勞動(即廣告文案等)、成熟模型的預測類工作(貨品預測需求等)、相對開放的信息收集。

      楊炫之在分享最后坦言,對于海底撈這樣的傳統企業而言,大模型帶給更多的是便利性,或者說我們基礎工作的替代,應用范圍可能沒有那么大。

      回到大模型服務側,作為大模型服務平臺,火山方舟為模型訓練、推理、評測、精調等提供了全方位功能和服務。在過往的一年多時間里,字節自身已經充分使用體驗,支撐了字節的大模型的豐富生態。

      火山方舟 2.0 版本,升級了插件、系統承載能力等多個維度。

      以 RAG 知識庫插件為例,火山方舟 2.0 內置了字節跳動多年實踐沉淀的大規模高性能向量檢索能力,百億級別數據可以實現毫秒級檢索,支持秒級索引流式更新,可以實現新增數據能夠實時檢索。知識庫插件也內置了豆包向量化模型,文檔解析環節集成了飛書優秀的文檔解析能力,支持pdf、doc、ppt、excel、txt、markdown等多種復雜類型文檔解析能力。

      系統承載能力方面,火山方舟 2.0 實現了萬卡公有云GPU資源池、5秒接入新建精調模型、3分鐘內完成千卡擴容等效果。

      譚待表示,全新升級的火山方舟 2.0 不僅提供了抖音、今日頭條的搜索和內容插件等豐富的生態資源,還有著充沛的算力資源和極致彈性,保障客戶的業務穩定。

      前文提到的扣子專業版,已經集成在火山方舟,提供企業級 SLA 和高級特性。

      回到起點,豆包已經在 C 端取得了看起來還不錯的效果;在 B 端,豆包大模型一上線就因價格而廣受關注,火山方舟與豆包大模型會交出怎樣的答卷?

      結果,或許已經呼之欲出。


      雷峰網原創文章,未經授權禁止轉載。詳情見轉載須知

      悶聲狂奔一年,字節大模型的進階之路

      分享:
      相關文章
      最新文章
      請填寫申請人資料
      姓名
      電話
      郵箱
      微信號
      作品鏈接
      個人簡介
      為了您的賬戶安全,請驗證郵箱
      您的郵箱還未驗證,完成可獲20積分喲!
      請驗證您的郵箱
      立即驗證
      完善賬號信息
      您的賬號已經綁定,現在您可以設置密碼以方便用郵箱登錄
      立即設置 以后再說
      主站蜘蛛池模板: 成人看的污污超级黄网站免费| 中国xxx农村性视频| 无码中文幕| 又爽又黄又无遮挡的激情视频| 国产无码一区二区| 久久综合九色综合欧洲98| 美日韩在线视频一区二区三区| 达孜县| 欧美成a网| 天天色成人综合网| 国产精品无码一本二本三本色| 国产精品被狂躁到高潮| 镶黄旗| AV人摸人人人澡人人超碰下载| 性久久久久久| 极品蜜臀黄色在线观看| 三上悠亚日韩精品二区| 国产欧美日韩精品丝袜高跟鞋| 搡老熟女老女人一区二区| 性色在线视频精品| 日本深夜福利在线观看| 鄯善县| 岛国一区二区三区av| 国产狂喷潮在线观看| 日韩激情一区二区| 中文字幕一区二区不卡视频| 亚洲熟妇无码av在线播放| 天天躁人人躁人人躁狂躁| 人妻社区| 欧美国产日韩在线三区| 欧美人与zoxxxx另类| 无遮高潮国产免费观看| 成人精品一区二区三区中文字幕| 欧美亚洲另类国产很色婷婷 | 青草青草久热国产精品| 久久久午夜精品福利内容| 久久精品一本到99热免费| 制服丝袜无码在线| 午夜福利视频一区| 国产欧美精品一区二区三区,| 国产在线视频www色|