Au début de chaque projet d’automatisation, les intégrateurs de systèmes robotiques doivent effectuer une évaluation des risques pour l'utilisation prévue et les utilisations détournées mais facilement prévisibles des robots. Si cela avait été fait, de nombreuses modifications auraient été mises en œuvre, notamment le remplacement de la pince à bords durs par une pince souple et l'utilisation de capteurs de sécurité n'autorisant le mouvement que lorsque personne ne se trouve à proximité du robot. Il était raisonnablement prévisible que le joueur d'échecs humain se concentrerait sur le jeu, et non sur son adversaire robot.
La sécurité de l'automatisation consiste à « faire en sorte que la manière facile de travailler devienne une manière sûre de travailler ». Dans ce cas, tous les mouvements du jeu d'échecs doivent pouvoir être effectués sans qu'une personne n’ait à se demander si elle peut déplacer sa pièce d'échecs ou si elle va se blesser.
La technologie existe pour éviter que de tels incidents ne se produisent !
Les robots collaboratifs (cobots) à puissance et force limitées (PFL) arrêteraient de bouger au contact d’une une personne. Une technologie de ce type est facilement disponible. Conformément aux exigences de l'évaluation des risques de l'application, des dizaines de milliers de robots collaboratifs travaillent chaque jour en toute sécurité aux côtés des humains. D’ailleurs, les cobots sont de plus en plus utilisés dans les établissements scolaires pour enseigner la programmation et le développement d'applications robotiques.