شخص ما لصق بيانات العميل في ChatGPT. كان الناتج مفيدا. كانا يشاركان ذلك داخليا. لم يعط أحد الأمر اهتماما كبيرا... حتى بعد ستة أسابيع، عندما سأل عميل لماذا ظهرت معلوماته في مكان غير متوقع. ثم جاء الفوضى: أي أداة، أي نموذج/إصدار، من قام بذلك، ما البيانات التي دخلت، ماذا قال المخرج، وأين انتشرت الصورة؟ الأسوأ من ذلك، أن معظم ذلك كان غير قابل للاسترداد. ما لديهم كان تذكرة دعم، وسلاسل بريد إلكتروني متفرقة، وعدم وجود إجابات واضحة. هذا هو شكل مخاطر الذكاء الاصطناعي في معظم الشركات. يصبح الخطر واضحا فقط عندما يبدأ أحدهم بطرح الأسئلة. ما يحتاجونه هو سجل، دليل على السلسلة موجود قبل أن يعرف أحد أن يسأل. هذا أحد أدوار Number في صناعة الذكاء الاصطناعي: تدقيق البنية التحتية لمخرجات الذكاء الاصطناعي. متى كانت آخر مرة قامت فيها شركتكم بتدقيق أدوات الذكاء الاصطناعي التي يستخدمها الموظفون؟