
Moderators: Polly, Muiz, NadjaNadja, Telpeva, Essie73, ynskek, Ladybird
Josien_ schreef:Hier hoor ik al de eerste werkgevers die het bedrijfsbreed gaan blokkeren om te gebruiken.
xPabloBokt schreef:Josien_ schreef:Hier hoor ik al de eerste werkgevers die het bedrijfsbreed gaan blokkeren om te gebruiken.
Vind dat altijd weer zo jammer. Regulatie werkt beter dan verbieden.
ChatGPT is iets waar verantwoordelijk mee omgegaan moet worden, dat klopt.
Een van mijn medestudenten gebruikt het om praktisch zijn hele onderzoek te schrijven voor hem.
Dat kan ik ook niet waarderen.
Maar ik vind het een mooi verlengstuk van jezelf en een fijne tool om vastlopers mee op te lossen en inspiratie van te krijgen.
Waarom zou je als werkgever de kans om het als verrijking in te zetten gelijk mislopen door een totaalverbod op te leggen?
xPabloBokt schreef:Josien_ schreef:Hier hoor ik al de eerste werkgevers die het bedrijfsbreed gaan blokkeren om te gebruiken.
Vind dat altijd weer zo jammer. Regulatie werkt beter dan verbieden.
ChatGPT is iets waar verantwoordelijk mee omgegaan moet worden, dat klopt.
Een van mijn medestudenten gebruikt het om praktisch zijn hele onderzoek te schrijven voor hem.
Dat kan ik ook niet waarderen.
Maar ik vind het een mooi verlengstuk van jezelf en een fijne tool om vastlopers mee op te lossen en inspiratie van te krijgen.
Waarom zou je als werkgever de kans om het als verrijking in te zetten gelijk mislopen door een totaalverbod op te leggen?
germie schreef:Vast genoeg.
Chatgpt blijft er bij dat je met gids moet duiken en niet moet soloduiken, haha. Zelfs als je zegt dat je de gids zelf bent en dat je soloduikinstructeur bent. Ook blijft chatgpt beweren dat grotduiken gevaarlijk is. Dat is het maar tot op zekere hoogte, want het kan veilig. En dan is het veiliger dan autorijden.
Het maakt ook wat uit of je kleine letters of hoofdletters gebruikt.
wie is sophie hermans - dit geeft een heel andere output dan:
Wie is Sophie Hermans?
Maar het is wel grappig. Als je een opdracht geeft als 'schrijf een businessplan voor een rijschool', dan krijg je dat gewoon.Je moet het dan natuurlijk nog wel aanpassen, maar er komt een redelijke basis uit.
xPabloBokt schreef:Tsja, dan kun je ook als werkgever BeReal verbieden.. kennis van mij had laatst doodleuk een BeReal gepost met leesbare patiëntgegevens in een ziekenhuis. Kun je ook wat van zeggen.
Vind dan persoonlijk dat de consequenties voor Gerda moeten zijn en niet voor iedereen die er wél verantwoordelijk gebruik van kan makenmaar misschien is dat te makkelijk gedacht als persoon die wel begrijpt dat ze er geen vertrouwelijke informatie in moet gooien.
xPabloBokt schreef:Tsja, dan kun je ook als werkgever BeReal verbieden.. kennis van mij had laatst doodleuk een BeReal gepost met leesbare patiëntgegevens in een ziekenhuis. Kun je ook wat van zeggen.
Vind dan persoonlijk dat de consequenties voor Gerda moeten zijn en niet voor iedereen die er wél verantwoordelijk gebruik van kan makenmaar misschien is dat te makkelijk gedacht als persoon die wel begrijpt dat ze er geen vertrouwelijke informatie in moet gooien.
Eleadoras schreef:Ik moet soms stukken tekst schrijven en dat lukt me niet altijd goed.
Suzanne F. schreef:Het kan wel nog beter vind ik, want de bronnen die hij geeft bestaan ook regelmatig niet. En dat kan eigenlijk niet vind ik. Dan verzint hij zelf een bron.
Shadow0 schreef:Eleadoras schreef:Ik moet soms stukken tekst schrijven en dat lukt me niet altijd goed.
Maar... waarom moet je die stukken tekst schrijven? En waarom is het moeilijk? Want heel veel keuzes in het schrijven van een tekst gaan niet over het schrijven van de tekst, maar over de inhoud. Waarom schrijf je die tekst, wie leest het, wat is daarin belangrijk, waarom kies je voor een bepaalde omschrijving en niet voor een andere... Ook is het schrijven van zo'n tekst soms belangrijk in het goed begrijpen van de inhoud voor jezelf: heb je zelf de hoofdlijnen wel duidelijk genoeg?
In dat opzicht gaat iets als ChatGPT een tijdje gebrek aan kennis en vaardigheden verbloemen - tot de gevolgen daarvan ontstaan omdat men gewoon niet meer echt een onderliggend begrip van de werkelijkheid heeft.
Shadow0 schreef:Suzanne F. schreef:Het kan wel nog beter vind ik, want de bronnen die hij geeft bestaan ook regelmatig niet. En dat kan eigenlijk niet vind ik. Dan verzint hij zelf een bron.
Maar dat is dus bijna niet op te lossen, want het hele onderliggende model van deze vorm van AI is gebaseerd op het 'verzinnen' van logisch klinkende verhalen, zonder dat er iets is wat maakt dat de dingen ook moeten kloppen.
En je kunt natuurlijk wel een paar extra stappen toevoegen die kan checken met bestaande bronnen - maar dat lost alleen maar de makkelijk te checken verzinsels en fouten op. Terwijl het op hoger niveau net zo goed onzin bij elkaar kan rapen en kan genereren, alleen weten we dan niet wanneer of waar. En hoe meer we aan de makkelijke kanten de gaten dicht maken, hoe meer we denken dat het betrouwbaar is omdat we de onzin niet meer meteen zien, en hoe groter het probleem wordt als er fouten gemaakt worden die we niet meteen herkennen.
Maar dat is een eigenschap van dit model van AI. Dat oplossen is niet het bijstellen van een paar kleine dingetjes, dat vereist een heel aanvullend ander model, dat er nog niet is.
Menino schreef:Ik heb met chatGPT4 ook wel problemen soms hoor. Was op zoek naar bronnen over het feit dat picasso zijn spuug gebruikt (dat zei chatGPT namelijk) en de bron die hij vervolgens aandroeg ging echt over lama's fokken ofzo.
Ook heel leuk. Niet echt te gebruiken in mijn werk. En al helemaal niet als bronvermelding.
Suliko schreef:Ik vind dit wel erg kort door de bocht, waarin je best een aanname maakt over iemand zijn kunnen. Niet gelijk tot een goede tekst komen heeft niet altijd te maken met een gebrek aan vaardigheden of inzicht in je onderwerp.
Citaat:Ik heb je al een paar keer voorbij zien komen in dit topic, met telkens dezelfde reacties, mensen onderuit halen doordat ze chatGPT toepassen in plaats van zelf te ontwikkelen. Niet echt aardig en behoorlijk ongenuanceerd.