• SorteKanin@feddit.dkM
    link
    fedilink
    arrow-up
    2
    ·
    21 hours ago

    Men når så man er færdig med al arbejdet, som udgør træningen, så er vi vel enige om, at man ender med en færdig model f.eks. “GPT-4o mini 2501 high much wow”, som folk så kan bruge, som den er?

    […]

    Hmm… så har vi sådan set begge ret alt efter, hvem man spørger. Hvis jeg træner min egen LLM, og lægger den på huggingface, og aldrig gør mere ved den… Så er den jo “færdigtrænet”. Men hvis jeg er OpenAI og løbende piller ved finjusteringen af GPT4, så bliver træningen vel aldrig rigtigt færdig?

    Jojo klart. I sidste ende står du med en model, især hvis du bare selv har trænet den, selvfølgelig. Men selv med ChatGPT er det jo ikke bare en model. Du har vel fx oplevet at du får to svar på en forespørgsel hvor den beder dig vurderer hvilket svar er bedst? Det er jo to forskellige modeller der har givet det svar, selvom at du måske har valgt “GPT-4o mini whatever” som model. Det er helt sikkert noget de løbende udvikler tænker jeg.