Visada turėkite omenyje, kad viskas, ką dalijatės su „ChatGPT“, yra saugoma ir naudojama toliau mokant modelį. „Samsung“ darbuotojai nepageidaujamai atskleidė labai slaptus „Samsung“ duomenis, naudodamiesi „ChatGPT“ savo darbe. „Samsung“ puslaidininkių skyrius leido inžinieriams naudoti „ChatGPT“ šaltinio kodą patikrinimui.
„The Economist Korea“ pranešė apie tris atskirus atvejus, kai „Samsung“ darbuotojai netyčia išdalijo slaptą informaciją į „ChatGPT“. Vienu atveju darbuotojas įklijavo konfidencialų šaltinio kodą į pokalbį su tikslu patikrinti, ar jame nėra klaidų. Kitas darbuotojas pasidalino kodu su „ChatGPT“ ir paprašė, kad modelis jį optimizuotų. Trečias darbuotojas pasidalino susitikimo įrašu, kad galėtų apdoroti pastabas pristatymui. Dabar ši informacija yra prieinama „ChatGPT“ mokymuisi.
Kiti scenarijai apima konfidencialių teisinių dokumentų ar medicininės informacijos dalijimąsi, siekiant apibendrinti ar analizuoti ilgus tekstus, kurie vėliau gali būti naudojami modeliui tobulinti. GDPR pažeidimas gali kelti didelę grėsmę, todėl Italija neseniai uždraudė „ChatGPT“ naudojimą.
„Samsung“ priėmė neatidėliotinas priemones, apribodama „ChatGPT“ įkėlimo pajėgumą iki 1024 baitų vienam vartotojui ir tyrinėjant žmones, susijusius su nutekėjimu. Taip pat svarstoma galimybė sukurti savo vidinę pokalbių roboto sistemą, kad ateityje būtų išvengta tokių gedimų. Tačiau tikėtina, kad „Samsung“ nepateiks jokių nutekėjusios informacijos ataskaitų. ChatGPT duomenų politika nurodo, kad ji naudoja duomenis mokymui savo modeliams, nebent jūs paprašysite atsisakyti. ChatGPT naudojimo vadove aiškiai įspėjama, kad pokalbiuose neturėtų būti dalijamasi slaptomis informacijomis.