Dit moment ondergaat OpenAI, de maker van ChatGPT, belangrijke veranderingen in zijn ontwikkeling. Het bedrijf verbetert de mogelijkheden van de chatbot door nieuwe functies toe te voegen, waaronder de mogelijkheid voor Plus-gebruikers om “aangepaste instructies” te geven. Met deze instructies kunnen gebruikers meer consistente antwoorden van de AI krijgen, waarbij het gedrag van de chatbot wordt aangepast aan specifieke voorkeuren. ze functie stelt gebruikers in staat om ChatGPT te instrueren om op een formele manier te antwoorden, een specifieke woordlimiet te gebruiken of neutraliteit te behouden over bepaalde onderwerpen en meningen te uiten over andere onderwerpen.
AI ondervindt momenteel een grote hindernis in de vorm van het aftreden van Dave Willner, degene die verantwoordelijk was voor vertrouwen en veiligheid, terwijl er vooruitgang wordt geboekt in andere gebieden. ner gaat vanwege conflicten tussen zijn werk en persoonlijke leven over naar een adviserende rol binnen het bedrijf, zodat hij zich meer kan focussen op de zorg voor zijn kinderen. Hierdoor ontstaat een kritieke positie, aangezien het hoofd verantwoordelijk is voor het waarborgen van veilig gebruik van het taalmodel.
Outputtaalcode voor ChatGPT
Het is nu mogelijk om op ChatGPT aangepaste instructies toe te voegen, wat een vooruitgang is voor de gebruikers. Door specifieke instructies toe te voegen, kan de AI op hun behoeften worden afgestemd. Dit lost een veelvoorkomend probleem op in de AI-wereld: de mate van “vooringenomen” gedrag dat een AI moet hebben. Met aangepaste instructies hebben gebruikers controle over hoe de chatbot op verschillende situaties moet reageren, waardoor een evenwicht ontstaat tussen persoonlijke interacties en het behoud van ethische grenzen.
integreren van op maat gemaakte instructies kan aanzienlijk effect hebben op diverse toepassingen, van zakelijke omgevingen waar formeel taalgebruik van belang is tot contentcreatie waar het naleven van beperkingen in woordaantal van groot belang is.
gebruik van ChatGPT biedt de mogelijkheid om meningen te geven over sommige onderwerpen, maar onpartijdig te blijven over andere. Dit kan creatieve brainstormsessies en discussies bevorderen. Het is belangrijk om erop te letten dat door AI gegenereerde inhoud niet leidt tot desinformatie of vooringenomen standpunten.
Veranderingen in het leiderschap van OpenAI
Vertrek van Dave Willner, die verantwoordelijk was voor vertrouwen en veiligheid bij OpenAI, zal uitdagingen en kansen met zich meebrengen voor het bedrijf. Hij heeft bijgedragen aan het handhaven van het veilige en verantwoorde gebruik van AI-technologie en zijn expertise heeft OpenAI geholpen om een betrouwbaar bedrijf te worden in de AI-industrie.
AI heeft Mira Murati interim-hoofd van het vertrouwens- en veiligheidsteam gemaakt nadat Willner overstapte naar een adviserende rol. Hoewel Murati bekwaam is, is het van cruciaal belang voor het voortdurend succes van het bedrijf om een permanente vervanger te vinden met de vereiste technische vaardigheden en domeinkennis. Nieuwe verantwoordelijke voor vertrouwen en veiligheid heeft als taak om gebruikers te beschermen tegen schadelijke informatie en om het afwijzen van AI te verbeteren. Dit is om ervoor te zorgen dat ChatGPT betrouwbaar en veilig blijft voor verschillende toepassingen.
Aten we ons focussen op het afstemmen van de output van huidige AI
AI heeft aangekondigd dat zij de ondersteuning voor de taalmodellen GPT-3.5 en GPT-4 zullen voortzetten tot minstens 13 juni volgend jaar, als reactie op zorgen die door de academische gemeenschap zijn geuit. Dit moet helpen om prestatieproblemen aan te pakken en de nauwkeurigheid van de modellen te verbeteren. it recente onderzoeken van onderzoekers van Stanford en UC Berkeley blijkt dat ChatGPT minder goed presteert op bepaalde taken, zoals wiskunde en codering, in vergelijking met eerdere versies.
AI heeft vastgesteld dat, hoewel de meeste prestatie-indicatoren verbeterd zijn, sommige taken mogelijk minder goed worden uitgevoerd als gevolg van aanpassingen en veranderingen in het model. bedrijf van plan om ontwikkelaars meer duidelijkheid te geven over modelupdates, zodat het proces van uitbrengen en afschrijven beter inzichtelijk en stabiel wordt. deze aanpak kunnen ontwikkelaars weloverwogen keuzes maken over het toepassen van AI-modellen in hun systemen en kunnen bedrijven hun vertrouwen in de technologie behouden.
Phasizing Trust and Safety
Missie van OpenAI draait om vertrouwen en veiligheid. Het is uiterst belangrijk dat AI-technologie verantwoordelijk en ethisch wordt gebruikt om mogelijke risico’s van schadelijke uitkomsten en vooroordelen te voorkomen. Het hoofd van vertrouwen en veiligheid is verantwoordelijk voor het toezicht op het gedrag van de AI en het beschermen van gebruikers tegen mogelijke problemen.