Welke contractuele risico’s spelen er bij AI?

Een model dat ontwikkeld is voor een opdrachtgever kan ongeschikt blijken te zijn voor het gewenste gebruik of foute uitkomsten geven. Hiervoor zijn geen specifieke wettelijke normen op basis waarvan aansprakelijkheid kan worden vastgesteld. Contractueel kunnen partijen wel bepaalde zaken omtrent aansprakelijkheid vastleggen. Zo kan een fabrikant die zich wil profileren als betrouwbaar alle aansprakelijkheid op zich nemen zolang er geen sprake is van een grote menselijke fout.

Het is handig om vast te leggen wat de garanties van de ontwikkelaar zijn en wie er garandeert dat de dataset geschikt is voor het doel. De regel dat je als ontwikkelaar moet leveren wat je aanbiedt, geldt natuurlijk wel, maar hoe druk je de onvolmaaktheid van je model uit? Dat moet je in de opdrachtovereenkomst opnemen. Men kan een acceptabele foutmarge vaststellen of een garantiesysteem waarbij de producent een boete moet betalen als er meer foute uitkomsten zijn dan verwacht.

Bij systemen die beslissingen over mensen maken, moet er ook bepaald worden of een betrokkene recht heeft op een menselijke beoordeling. Het gaat dan om de vragen wie de beoordeling gaat doen en wie de uitleg van het model regelt.

Details

  • Toegevoegd op 23-07-2021 13:14:53
  • Gewijzigd op 31-12-2021 09:02:48
  • Sectoren Cultuur en Media Financiële Dienstverlening Technische Industrie Defensie Energie en Duurzaamheid Publieke diensten Gezondheid en Zorg Haven en Maritiem Landbouw en Voeding Gebouwde omgeving Logistiek Veiligheid Onderwijs
  • Onderwerpen AI AI - Aansprakelijkheid