Słowniczek

Temperatura (w AI)

Temperatura w kontekście modeli AI to parametr kontrolujący losowość (randomness) generowania tekstu. Determinuje, jak „kreatywny” versus „przewidywalny” będzie output modelu. To jedno z najważniejszych ustawień, które możesz dostroić przy korzystaniu z AI przez API — i jedno z najbardziej niezrozumianych.

Analogia: temperatura to pokrętło od podręcznika (0) do improwizacji jazzowej (1.0+). Na 0 model zawsze da tę samą, bezpieczną odpowiedź. Na 1.0 zacznie eksperymentować — czasem genialnie, czasem absurdalnie.

Jak działa temperatura technicznie?

LLM przy każdym kroku generowania oblicza prawdopodobieństwa dla wszystkich możliwych następnych tokenów (fragmentów tekstu). Temperatura modyfikuje rozkład tych prawdopodobieństw:

  • Temperatura 0 (lub bliska 0) — model zawsze wybiera token o najwyższym prawdopodobieństwie. Wynik jest deterministyczny i przewidywalny. Ten sam prompt da (prawie) tę samą odpowiedź za każdym razem. Jak automat — wrzucasz monetę, dostajesz ten sam produkt.
  • Temperatura 0.3-0.7 — „sweet spot” dla większości zastosowań. Model eksploruje alternatywy, ale trzyma się rozsądnych granic. Odpowiedzi są zróżnicowane, ale spójne i kontrolowalne.
  • Temperatura 1.0 — pełna losowość z oryginalnego rozkładu prawdopodobieństw. Odpowiedzi są kreatywne, ale mogą być niespójne lub zaskakujące.
  • Temperatura > 1.0 — eksploracja mało prawdopodobnych tokenów. Wynik jest „dziki”, nieprzewidywalny, często niespójny. Przydatne do burzy mózgów i generowania nietypowych pomysłów — rzadko do produkcji.

Kiedy używać jakiej temperatury?

Praktyczny przewodnik:

  • 0 — 0.2 — analiza danych, ekstrakcja informacji, odpowiadanie na pytania faktograficzne, klasyfikacja dokumentów, tłumaczenie. Wszędzie, gdzie chcesz dokładności i powtarzalności. Chatbot obsługi klienta: 0.1-0.2 (klient pytający o cennik musi dostać tę samą cenę za każdym razem).
  • 0.3 — 0.5 — pisanie maili biznesowych, generowanie kodu, podsumowania, dokumentacja, SOP. Balans między spójnością a naturalnym brzmieniem tekstu.
  • 0.5 — 0.8 — pisanie artykułów, content marketing, kreatywne teksty, opisy produktów. Zróżnicowane, naturalne, ale nadal kontrolowalne.
  • 0.8 — 1.2 — burza mózgów, generowanie pomysłów na nazwy/slogany, kreatywne pisanie fikcji, brainstorming strategiczny. Maksymalna kreatywność, akceptowalny chaos.

Temperatura a halucynacje AI

Kluczowy związek: wyższa temperatura = więcej halucynacji AI. Mechanizm: gdy model eksploruje mniej prawdopodobne tokeny (wysoka temperatura), prawdopodobieństwo wygenerowania zmyślonych informacji rośnie — bo „mniej prawdopodobny token” to statystycznie mniej pewna informacja.

Dlatego w zastosowaniach wymagających dokładności (RAG, chatboty firmowe, analiza dokumentów) stosuj niską temperaturę (0.1-0.3). W zastosowaniach kreatywnych (burza mózgów, content) wyższa temperatura jest OK, bo „halucynacja” w kontekście kreatywnym to po prostu nietypowy pomysł — nie ma znaczenia czy statystyka jest zmyślona, jeśli szukasz inspiracji.

Temperatura w praktyce biznesowej

Jeśli korzystasz z AI przez chatbot (ChatGPT, Claude) — nie masz kontroli nad temperaturą, dostawca ustawia ją za Ciebie (zazwyczaj ~0.7 dla ogólnych rozmów). Kontrolę masz przez API i przy budowaniu agentów AI.

Typowe ustawienia w produkcji:

  • Chatbot obsługi klienta: temperatura 0.1-0.2 (konsystentne, dokładne odpowiedzi)
  • Generator treści: temperatura 0.5-0.7 (kreatywne, ale kontrolowalne)
  • Brainstorming bot: temperatura 0.9-1.2 (maksymalna różnorodność pomysłów)
  • Klasyfikator maili/dokumentów: temperatura 0 (deterministyczny, powtarzalny wynik)

Top_p (nucleus sampling) — alternatywa dla temperatury

Obok temperatury istnieje parametr top_p (nucleus sampling), który również kontroluje losowość, ale innym mechanizmem. Temperatura skaluje prawdopodobieństwa, top_p obcina „ogon” rozkładu (ignoruje tokeny poniżej kumulatywnego progu prawdopodobieństwa). W praktyce: nie ustawiaj obu naraz. Używaj temperatury LUB top_p. Większość deweloperów AI preferuje temperaturę — jest bardziej intuicyjna i przewidywalna.

Temperatura to parametr kontrolujący losowość generowania tekstu przez modele AI. Niska (0-0.3): model wybiera najbardziej prawdopodobne tokeny, odpowiedzi przewidywalne i spójne. Wysoka (0.7-1.2): model eksploruje mniej oczywiste opcje, odpowiedzi kreatywne ale mniej kontrolowalne. Analogia: pokrętło od podręcznika (0) do improwizacji jazzowej (1.0). Temperatura 0 daje identyczną odpowiedź za każdym razem. Temperatura 1.0 daje różnorodne odpowiedzi na ten sam prompt. Sweet spot: 0.3-0.7 dla większości zastosowań. Kluczowe: wyższa temperatura = więcej halucynacji AI, bo mniej prawdopodobne tokeny to statystycznie mniej pewne informacje.

Chatbot obsługi klienta: 0.1-0.2. Chcesz konsystentnych odpowiedzi — klient pytający o cennik musi dostać tę samą informację za każdym razem. Generator treści (maile, artykuły): 0.5-0.7 — naturalnie brzmiący tekst z odrobiną kreatywności. Brainstorming bot: 0.9-1.2 — maksymalna różnorodność pomysłów. Klasyfikator (maile, dokumenty): 0 — deterministyczny, powtarzalny wynik. Reguła: im ważniejsza dokładność, tym niższa temperatura. Im ważniejsza kreatywność, tym wyższa. Chatbot firmowy z temperaturą 1.0 będzie dawał kreatywne ale niespójne odpowiedzi — klient zapyta o cenę i dostanie inną odpowiedź za każdym razem.

Bezpośrednio: wyższa temperatura = więcej halucynacji. Przy niskiej temperaturze model wybiera najbardziej prawdopodobne tokeny — zazwyczaj poprawne, sprawdzone informacje. Przy wysokiej eksploruje mniej prawdopodobne — co zwiększa szansę na wygenerowanie zmyślonych faktów, bo mniej prawdopodobny token to statystycznie mniej pewna informacja. Dlatego w RAG, chatbotach firmowych i analizie dokumentów stosuj 0.1-0.3. W burzy mózgów i contencie wyższa OK — halucynacja w kontekście kreatywnym to po prostu nietypowy pomysł. Praktyczna reguła: jeśli output idzie do klienta lub decyzji biznesowej — niska temperatura. Jeśli do inspiracji — wysoka.

W interfejsach chatbotowych (ChatGPT, claude.ai) nie masz bezpośredniej kontroli — dostawca ustawia temperaturę za Ciebie (zazwyczaj ~0.7). Kontrolę masz przez API: parametr temperature w zapytaniu pozwala ustawić wartość od 0 do 2.0 (zależy od dostawcy). W Custom GPTs (ChatGPT) możesz pośrednio wpłynąć na kreatywność instrukcjami w system prompcie (np. odpowiadaj ściśle faktycznie, bez spekulacji działa jak obniżenie temperatury). Kluczowe: temperatura to parametr produkcyjny — jeśli budujesz chatbota lub agenta AI przez API, ustawiasz ją sam. Jeśli korzystasz z gotowego chatbota — dostawca zarządza.

Oba kontrolują losowość, ale różnymi mechanizmami. Temperatura skaluje prawdopodobieństwa wszystkich tokenów (mnożnik rozkładu — wyższy = bardziej płaski rozkład = więcej losowości). Top_p (nucleus sampling) obcina ogon rozkładu — model rozważa tylko tokeny, których skumulowane prawdopodobieństwo przekracza próg p (np. top_p=0.9 = model wybiera z 90% najprawdopodobniejszych tokenów). Praktyczna zasada: nie ustawiaj obu naraz — używaj temperatury LUB top_p. Większość deweloperów preferuje temperaturę bo jest bardziej intuicyjna i przewidywalna. Top_p jest przydatny gdy chcesz precyzyjnej kontroli nad zakresem eksploracji bez skalowania.