uutiset

openai päivittää whisper puheen transkription tekoälymallia, mikä tekee siitä 8 kertaa nopeamman laadusta tinkimättä

2024-10-03

한어Русский языкEnglishFrançaisIndonesianSanskrit日本語DeutschPortuguêsΕλληνικάespañolItalianoSuomalainenLatina

it house news 3. lokakuuta, openai julkisti whisper-suuren v3-turbo-puheen transkriptiomallin 1. lokakuuta järjestetyssä devday-tapahtumassa, jossa oli yhteensä 809 miljoonaa parametria, lähes ilman laadun ja nopeuden heikkenemistä 8 kertaa nopeampi kuin iso v3.

whisper-suuren v3-turbo-puheen transkriptiomalli on optimoitu versio suuresta v3:sta, ja siinä on vain 4 dekooderikerrosta (decoder layers) verrattuna suureen v3:een, jossa on yhteensä 32 kerrosta.

whisper big-v3-turbo puhetranskriptiomallissa on yhteensä 809 miljoonaa parametria, mikä on hieman suurempi kuin 769 miljoonan parametrin keskikokoinen malli, mutta paljon pienempi kuin 1,55 miljardin parametrin suuri malli.

openai sanoo, että whisper large-v3-turbo on 8 kertaa nopeampi kuin suuri malli ja vaatii 6 gt vram-muistia verrattuna suureen malliin 10 gt.

whisper-suuren v3-turbo-puheen transkriptiomalli on kooltaan 1,6 gt, ja openai tarjoaa edelleen whisperiä (mukaan lukien koodin ja mallin painot) mit-lisenssillä.

it house lainasi awni hannunin testituloksia, jotka osoittivat, että m2 ultrassa 12 minuuttia sisältöä litteroitiin 14 sekuntiin.