Re: (ot) chatgpt občaš strašne kecá
Jindrich Fucik
fulda na seznam.cz
Čtvrtek Duben 10 10:29:54 CEST 2025
Tady došlo k drobnému nepochopení. Ten modul nehledá pravdu, on jenom
papouškuje to, co někdy viděl. Jenom to k tomu papouškování umí docela
hezky poskládat, takže utvoří hezky stylizovanou větu.
Několik příkladů: pokud mám model, který jsem v minulosti učil výhradně
na větách o délce 60 a 90 znaků, bude každá jeho odpověď obsahovat věty
o délce 60 nebo 90 znaků. Nikdy nevytvoří větu o délce 75 znaků.
Primitivnější příklad je z OCR. Pokud mám OCR, které se naučilo číst
texty, ve kterých nikdy nebylo písmeno "J" (nebo třeba O s vokáňom
(cirkumflex - Ô)), tak to OCR už nikdy nepřečte správně znak "J", ačkoli
v tabulce je a třeba ho najde ve slovníku pro pravopis.
Takže pokud se ten model naučil na stránkách, kde byla několikrát otázka
"napsal jsem Pythagorovu větu jako a²+b²=c³, ale nevychází mi to" nebo
podobné a jelikož se to opakuje, tak místo vysvětlení je pokaždé jen
odkaz na první dotaz, tak máme jedno správné vysvětlení a²+b²=c², ale
několik špatných a tím pádem špatné vyhrává, protože je častější.
Stejně jako matematické operace, on je prostě nepočítá, on je odhaduje
podle něčeho, co už viděl.
Dne 10.04.2025 v 9:52 Miroslav Draxal napsal(a):
> Tak nějak jsem doufal, že ty modely budou prosty emocí a budou hledat
> pravdu. Ale když se to vlastně učí na lidech, tak to bude mít lidské
> mouchy. Škoda.
Další informace o konferenci Hw-list