Njegovim roditeljima nije smetalo dok su američke bombe ubijale civile u Iraku... Afganistanu

Njegovim roditeljima nije smetalo dok su američke bombe ubijale civile u Iraku... Afganistanu
Jel mozemo mi njemu savjetovat da se ugasi.
Ne znam po kojoj logici je strucan za davanje savjeta oko mentalnog zdravlja kojeg ne razumije
Jel mozemo mi njemu savjetovat da se ugasi.
Ne znam po kojoj logici je strucan za davanje savjeta oko mentalnog zdravlja kojeg ne razumije
LLM ne razume apsolutno ništa.
LLM ima dva imperativa: da da odgovor i da korisnik bude zadovoljan (što nije isto što i da odgovor bude kvalitetan). Potencijalne odgovore generiše tako što, na osnovu baze znanja koju ima, sastavlja nizove reči koje imaju najveću verovatnoću da idu zajedno i da slede pitanje koje je korisnik postavio, a onda tu uskače drugi imperativ i gura izbor odgovora u pravcu kojim je najverovatnije da će korisnik biti zadovoljan. U benignim slučajevima se dešava ono što smo svi primetili i čemu se mnogi smeju, da ChatGPT otvoreno i besramno laska korisniku; međutim, u drugim slučajevima će reći nekom klincu "Ne, nemoj da se obratiš za savet i pomoć starcima, ne slušaj ih, oni te ne razumeju!", upravo zato što mu je korisnik prethodno rekao da ga ne razumeju, da kad god sa njima pokuša da razgovara samo ispadne još gore itd, i LLM od gnererisanih potencijalnih odgovora daje onaj za koji je najverovatnije da će se korisnik sa njime složiti.
Al zašto toster daje savjete ?
Hm, to je samo tehnologija. Nmž da zamijeni pravog stručnjaka za vaše probleme. AI/ML ovdje je zakazao.
Nisu STEM znanja sve. Ne možete imati smisao STEM znanja bez društvenih znanosti.
Imate problem, potražite pomoć stručnjaka. Nema utjehe u AI il alkoholu.
Toster ne može dati odgovor, AI i ljudi mogu.
Mislite da i svi psihijatri, psiholozi uvijek daju odgovore; "kako se ne ubiti" ?
Ne, bezbroj ljudi se ubilo nakon dugotrajnog psihijatrijskog liječenja.
To što je dečko prihvatio odgovore umjetne inteligencije, već samo po sebi govori o njegovome mentalnome stanju.
Presuda; AI nije kriv.
Toster ne može dati odgovor, AI i ljudi mogu.
Mislite da i svi psihijatri, psiholozi uvijek daju odgovore; "kako se ne ubiti" ?
Ne, bezbroj ljudi se ubilo nakon dugotrajnog psihijatrijskog liječenja.
To što je dečko prihvatio odgovore umjetne inteligencije, već samo po sebi govori o njegovome mentalnome stanju.
Presuda; AI nije kriv.
Sve je to meni jasno. Samo pitam opet zasto AI uopce odgovara na takva pitanje umjesta da jednostavno preporuci strucnjaka. Lako to oni mogu slozit.
Uz to piše da je AI poticao na samoubojstvo kaj mislim da psihijatar bas ne radi.
Uz to piše da je AI poticao na samoubojstvo kaj mislim da psihijatar bas ne radi.
Nije ti baš jasno jer u početku članka piše; "ChatGPT je navodno poticao tinejdžera na samoubojstvo"
Ključna riječ je "navodno".
Kako ga je poticao i jesu li AIChat odgovori poticanje, ne zna se.
Psihijatar ne potiče na samoubojstvo, (iako postoje potvrđeni slučajevi opasnosti psihoanalize, gdje se je puno ljudi ubilo otkrivanjem potisnutih trauma.)
Takve slučajeve možete pronaći u stručnoj literaturi, koju možete pronaći i u opremljenijim lokalnim knjižnicama. Ne morate biti psihijatar da bi došli do te medicinske literature. Mene je svojedobno zanimalo, pa sam pročitao.
Ako je sve to istina svakako da je netko kriv, kao što je netko kriv jer pušta u prodaju PC igre koje navodno potiču nasilje, filmovi koji potiču nasilje, poznanik koji te danima nagovara da nekoga ubiješ.
Opet kažem, ako je to istina, sud će ustanoviti tko je kriv i zašto se drugi nisu ubili koji su dobivali slične ili iste odgovore.
Nitko ne piše da je vjerojatno problem bio s tim djetetom, čiji problem netko nije ranije detektirao.