Чат-бот «тинькофф банка» предложил клиентке отрезать пальцы. В учреждении извинились за грубость, которой голосовой помощник набрался из открытых данных

feature-image

Play all audios:

Loading...

С жалобой не неработающий в приложении сервис по входу с отпечатком пальца пожаловалась чат-боту клиентка «Тинькофф банка» Анна. Вместо помощи голосовой помощник Олег ответил: «Пальцы бы вам


отрезать». О проблеме клиентка кредитного учреждения сообщила в своих соцсетях. Представители «Тинькоффа» оперативно отреагировали извинениями: > «Голосовой помощник у нас немного с >


 характером и учится на открытых > данных. Иногда такое проскакивает. > Безусловно, не хотели причинять > неудобств». Также сотрудники банка > сослались на «своеобразный юмор»


> «Олега» и в шутку пообещали провести > с ним беседу. ------------------------- Так в комментарии РБК в банке уверили: > «Мы стараемся уберечь его от дурного > влияния 


окружающего мира, но не > всегда это получается. Мы провели > разъяснительную работу с голосовым > помощником, ему очень стыдно за свой > ответ, он обещал так больше не > 


делать». ------------------------- До этого Олег уже попадал под «дурное влияние» и отвечал клиентам банка, например, «пососите потом просите». Эксперты, как пишет tjournal, связывают это с


тем, что боты на основе нейросетей обучаются на постах в соцсетях или форумах. Так не раз с этим сталкивался Microsoft: в 2016 году твиттер-бот компании по имени Тау научился расистским


высказываниям за сутки. В 2017 году чат-бот Zo обошёл цензурные фильтры и стал высказываться на темы религии и терроризма.