Ako sa zdá a ako sme aj uviedli v minulom článku, ChatGPT nie je až taký dokonalý, ako by sa na prvý pohľad mohlo zdať. Hoci je umelá inteligencia rozhodne schopná pomôcť s vytváraním obsahu, stále nie je možné spoliehať sa na ňu v plnej miere. Poďme sa spoločne pozrieť na ďalšie nevýhody, ktoré používanie ChatGPT so sebou prináša.
6. ChatGPT je príliš podrobný a komplexný
ChatGPT bol vyškolený spôsobom, v rámci ktorého bol vždy odmenený, keď boli ľudia spokojní s odpoveďou. Ľudskí hodnotitelia mali tendenciu uprednostňovať odpovede, ktoré obsahovali viac podrobností. Ale niekedy, ako napríklad v lekárskom kontexte, je priama odpoveď lepšia ako komplexná. To znamená, že ChatGPT musí byť vyzvaný, aby bol menej komplexný a priamočiarejší, keď je to dôležité.
Zistite, či môže umelá inteligencia nahradiť copywritera.
7. ChatGPT občas klame a zavádza
Výskumný dokument How Close is ChatGPT to Human Experts? poznamenal, že ChatGPT má tendenciu klamať. Uvádza sa v ňom:
„Pri odpovedi na otázku, ktorá si vyžaduje odborné znalosti z konkrétnej oblasti, môže ChatGPT vymýšľať fakty, aby dal odpoveď…
Napríklad v právnych otázkach môže ChatGPT vymyslieť nejaké neexistujúce právne ustanovenia na zodpovedanie otázky.
…Navyše, keď používateľ položí otázku, na ktorú neexistuje odpoveď, ChatGPT môže tiež vymýšľať fakty, aby mohol poskytnúť odpoveď.“
Webová stránka Futurism zdokumentovala prípady, keď strojovo generovaný obsah publikovaný na CNET bol nesprávny a plný „hlúpych chýb“.
CNET mal mať predstavu, že by sa to mohlo stať, pretože OpenAI zverejnilo varovanie o nesprávnom výstupe:
„ChatGPT niekedy píše hodnoverne znejúce, ale nesprávne alebo nezmyselné odpovede.“
CNET tvrdí, že strojovo generované články pred zverejnením predložil na ľudskú kontrolu.
Problém s ľudskou kontrolou je, že obsah ChatGPT je navrhnutý tak, aby znel presvedčivo správne, čo môže oklamať recenzenta, ktorý nie je odborníkom na danú tému.
8. ChatGPT je neprirodzený, pretože nie je divergentný
Výskumný dokument tiež poznamenal, že ľudská komunikácia môže mať nepriamy význam, čo si vyžaduje posun v téme, aby sme jej porozumeli. ChatGPT je príliš doslovný, čo spôsobuje, že odpovede niekedy míňajú cieľ, pretože AI prehliada aktuálnu tému.
Výskumníci napísali:
„Odpovede ChatGPT sú vo všeobecnosti striktne zamerané na danú otázku, zatiaľ čo ľudia sa líšia a ľahko sa presúvajú na iné témy.
Pokiaľ ide o bohatosť obsahu, ľudia sa v rôznych aspektoch líšia, zatiaľ čo ChatGPT uprednostňuje zameranie sa na samotnú otázku.
Ľudia môžu odpovedať na skrytý význam pod otázkou na základe vlastného zdravého rozumu a vedomostí, ale ChatGPT sa spolieha na doslovné slová otázky…“
Ľudia sa dokážu lepšie odkloniť od doslovnej otázky, ktorá je dôležitá pre zodpovedanie otázok typu „čo s tým“.
Napríklad, ak sa spýtate:
„Kone sú príliš veľké na to, aby boli domácimi miláčikmi. A čo veveričky?“
Vyššie uvedená otázka sa nepýta, či je veverička vhodným domácim miláčikom. Otázka je o veľkosti zvieraťa. ChatGPT sa zameriava na vhodnosť veveričky ako domáceho maznáčika namiesto zamerania sa na veľkosť.
9. ChatGPT obsahuje zaujatosť voči neutrálnosti
Výstup ChatGPT je vo všeobecnosti neutrálny a informatívny. Je to zaujatosť vo výstupe, ktorá sa môže zdať užitočná, ale nie vždy je. Výskumný dokument, o ktorom sme práve diskutovali, poznamenal, že neutralita je nežiaduca kvalita, pokiaľ ide o právne, lekárske a technické otázky. Ľudia majú tendenciu vybrať si stranu, keď ponúkajú takéto názory.
10. ChatGPT je zaujatý, aby bol formálny
Výstup ChatGPT má skreslenie, ktoré mu bráni uvoľniť sa a odpovedať bežnými výrazmi. Namiesto toho sú jeho odpovede formálne.
Na druhej strane, ľudia majú tendenciu odpovedať na otázky skôr hovorovejším štýlom, používajúc každodenný jazyk a slang – teda opak formálneho. ChatGPT nepoužíva ani žiadne skratky ako sú „napr.“ či „atď.“
V odpovediach tiež chýbajú prípady irónie, metafor a humoru, čo môže spôsobiť, že obsah ChatGPT je pre niektoré typy obsahu príliš formálny.
11. ChatGPT je stále v procese tréningu
ChatGPT je v súčasnosti stále v procese školenia a zlepšovania. OpenAI odporúča, aby všetok obsah generovaný ChatGPT skontroloval človek, pričom to uvádza ako osvedčený postup.
OpenAI navrhuje udržať ľudí v obraze:
„Všade, kde je to možné, odporúčame mať výstupy z kontroly človekom pred ich použitím v praxi.
Ľudia by si mali byť vedomí obmedzení systému a mali by mať prístup ku všetkým informáciám potrebným na overenie výstupov (ak napríklad ChatGPT sumarizuje poznámky, človek by mal mať ľahký prístup k pôvodným poznámkam, aby sa mohol vrátiť späť).
Nežiaduce vlastnosti ChatGPT
Je jasné, že s ChatGPT je veľa problémov, kvôli ktorým nie je vhodný na vytváranie obsahu bez dozoru. Obsahuje predsudky a nedokáže vytvoriť obsah, ktorý pôsobí prirodzene alebo obsahuje skutočné poznatky.
Navyše, jeho neschopnosť cítiť alebo písať originálne myšlienky z neho robí zlú voľbu na vytváranie umeleckých vyjadrení. Používatelia by mali aplikovať podrobné zadanie tak, aby vytvorili obsah, ktorý je lepší ako predvolený obsah.
Napokon, kontrola strojovo generovaného obsahu ľudským copywriterom nie je vždy dostatočná, pretože obsah ChatGPT je navrhnutý tak, aby vyzeral správne, aj keď to tak nie je. Znamená to, že je dôležité, aby ľudskí recenzenti boli odborníkmi na danú tému a dokázali rozlíšiť medzi správnym a nesprávnym obsahom na konkrétnu tému.