Veilig & verantwoord gebruik

We zijn getuige van een tijdperk van ongekende technologische vooruitgang, waar grootschalige taalmodellen zoals GPT-3 en GPT-4 steeds prominenter worden. Deze modellen, gebaseerd op transformer architecturen, zijn krachtige hulpmiddelen die de mogelijkheid hebben om de manier waarop we communiceren, creëren en leren radicaal te veranderen. Echter, naarmate de kracht en complexiteit van deze modellen toenemen, moeten we ons bewust zijn van de noodzaak om ze op een Veilige en Verantwoorde manier te gebruiken.

 

Bij AI-ris staat Veiligheid en Verantwoord gebruik van Conversationele AI centraal in alles wat we doen. We onderscheiden onszelf van onze concurenten door deze waarden te laten primeren doorheen het hele softwareontwikkelings-, implementatie- en beheer-traject. Van de keuze van de modellen die we draaien, tot de manier waarop we omgaan met data en de locaties waar onze processen draaien.

 

Met AI-ris neem je een partner onder de arm die niet alleen meedenkt over hoe Conversationele AI veilig en verantwoord in te zetten, maar zelf proactief potentiele risico's in kaart brengt, mitigatie-maatregelen voorsteld en ervoor zorgt dat de uitvoering van deze maatregelen grondig wordt geïmplementeerd. AI-ris streeft er voortdurend naar om een stap voor te blijven op het gebied van beveiliging en verantwoord AI-gebruik, door ons te concentreren op de nieuwste onderzoeken en normen in ons vakgebied. Wij geloven dat het bouwen van sterke, veilige en verantwoorde AI-systemen niet alleen een noodzaak is, maar ook een verplichting naar onze klanten en de maatschappij toe. Met AI-ris aan je zijde, kun je erop vertrouwen dat je de kracht van Conversationele AI benut, terwijl je een veilige, ethische en maatschappelijk verantwoorde aanpak behoudt.

Veiligheid Eerst
Veiligheid is een cruciaal aspect bij de ontwikkeling en implementatie van Conversationele AI. Deze modellen zijn in staat om inhoud te genereren die indrukwekkend menselijk aanvoelt, wat betekent dat ze potentieel kunnen worden misbruikt om valse informatie of manipulatieve boodschappen te verspreiden. Om dit te voorkomen, is het belangrijk om veiligheidsmaatregelen in te bouwen.


Een daarvan is het toezicht op de output van het model. Geautomatiseerde controlemechanismen kunnen worden gebruikt om te detecteren wanneer het model mogelijk schadelijke of misleidende informatie genereert. Ook kunnen er maatregelen worden genomen om te voorkomen dat de AI gevoelige informatie onthult, zoals persoonlijke gegevens.
Daarnaast kan het nuttig zijn om de toegang tot dergelijke modellen te beperken of te reguleren. Dit kan betekenen dat het model alleen beschikbaar is voor geautoriseerde gebruikers, of dat er strengere beperkingen worden gesteld aan wat het model kan doen.


Verantwoord Gebruik
Het verantwoord gebruik van grootschalige taalmodellen gaat verder dan alleen veiligheid. We moeten ook rekening houden met de bredere maatschappelijke implicaties van deze technologie.
Het is belangrijk om na te denken over manieren om mensen te helpen hun vaardigheden aan te passen en zich voor te bereiden op een veranderende arbeidsmarkt.


Ook moeten we rekening houden met de mogelijke gevolgen van bias in AI. Grootschalige taalmodellen worden getraind op grote hoeveelheden tekst uit het internet, wat betekent dat ze de bestaande vooroordelen in deze teksten kunnen leren en versterken. Het is cruciaal om manieren ontwikkelen om deze bias te detecteren en te verminderen.

AI-ris methodologie

AI-ris gebruikt meerdere technieken en  methodologieën die uniek zijn aan onze product offering en ons in staat stellen Conversationele AI op een zo veilig en verantwoorde manier in de markt te zetten.

 

 

1

Vermijden hallucinaties

Door Large Language Models (LLM's) te trainen op eigen dataset(s) en de vraagstelling in de instellingen te beperken hiertoe kunnen hallucinaties bijna volledig vermeden worden (*afhankelijk van de datakwaliteit van de bron). 

 

2

Anonimisatie van input-gegevens

Door input-gegevens (lokaal) te anonimiseren kan vermeden worden dat persoonsgegevens of andere bedrijfsgevoelige gegevens gedeeld worden met derde partijen.  

 

3

Specificatie op doelgroep

Door de instellingen van de tooling te specificeren op de doelgroep ervan kan vermeden worden dat er antwoorden worden gegeneerd die niet overeenkomen met de informatiebehoefte van de klant en/of doelgroep.

 

4

Inzicht & beheersbaarheid

Door gebruiksvriendelijke monitoring van het gebruik van de tooling kan misbruik  vermeden worden en kan het gebruik ervan inzichtelijk en beheersbaar blijven. 

5

Uitvoerige testing 

Door uitgebreide, diverse en herhaalde testing met testers uit de doelgroep kan elke vorm van bias in het model gecorrigeerd en tot een minimum beperkt worden.

 

6

Lokale modellen 

Door lokale modellen te draaien op kritische momenten in het proces (vb. persoonsgegevens, bedrijfsgevoelige gegevens) kan voldaan worden aan  juridische eisen o.v.v. gegevensbescherming. 

 

7

Veranderingsmanagement 

Door in te zetten op inzicht, opleiding en draagvlak binnen de organisatie kan misbruik van de tooling tot een minimum beperkt worden en het personeelsbestand flexibeler ingezet worden.

 

8

Proactief beheer

Door de tooling proactief te beheren, regelmatige up-te-daten en  voor elke release uitgebreid te testen kan de stabiliteit, betrouwbaarheid en consistentie van bestaande processen bestendigd en versterkt worden.