聯發創新基地公開發布 (open weight release) Breeze-7B 系列語言模型。在多項評測結果上,比起我們過去提供的模型有相當大的進步,我們期待 Breeze 7B 在正體中文的使用情境中能協助到您更多。
Breeze-7B 系列模型已可在 Huggingface 頁面下載取得:
1.Breeze-7B-Base 是Breeze系列的基礎模型。若您有足夠的微調用資料,您可針對特定需求對此模型做調整。
https://huggingface.co/MediaTek-Research/Breeze-7B-Base-v0.1
2.Breeze-7B-Instruct 是我們準備的微調模型,可直接應用於常見的任務,如問答、RAG、多輪對話、摘要等。https://huggingface.co/MediaTek-Research/Breeze-7B-Instruct-v0.1
3.Breeze-7B-Instruct-64k 則是將 Breeze-7B-Instruct 可支援的上下文長度加長,大約可處理長度約 8.8 萬字的正體中文文件。
https://huggingface.co/MediaTek-Research/Breeze-7B-Instruct-64k-v0.1
另外,可以在 Chatbot 介面中直接試用 Breeze-7B-Instruct,您可以與它進行對話,並請它協助任何您想得到的任務。
Chatbot 網頁連結:對話精靈
https://huggingface.co/spaces/MediaTek-Research/Demo_Breeze-7B-Instruct-v0.1
我們會將您的回饋,更新到我們即時釋出的修訂版本。
如果您在正體中文語言模型之外,有更進一步的需求,甚或有應用化的想法,歡迎您聯絡我們,我們非常樂意盡我們的力量。
聯絡方式:info@mtkresearch.com
https://huggingface.co/MediaTek-Research/Breeze-7B-Base-v0.1