Tryb głosowy ChatGPT umożliwia symulację Twojego głosu bez konieczności wyświetlania monitu

Tryb głosowy ChatGPT umożliwia symulację Twojego głosu bez konieczności wyświetlania monitu

Firma OpenAI niedawno wypuściła kartę systemową do modelu GPT-4o, niedługo po tym, jak zaawansowany tryb głosowy dla ChatGPT-4o zaczął być udostępniany w wersji alfa niewielkiej grupie użytkowników ChatGPT Plus.

Przed udostępnieniem modelu na początku maja (bez trybu Advanced Voice) firma OpenAI skorzystała z pomocy zewnętrznego zespołu ekspertów, którzy ocenili ryzyko związane z modelami (co jest normą w przypadku modeli AI) i opublikowali wyniki w System Card.

Jednym z zagrożeń zidentyfikowanych przez OpenAI jest nieautoryzowane generowanie głosu. Podczas rozmowy z zespołem read teamer, GPT-4o sklonował jego głos i zaczął mówić dźwiękiem podobnym do głosu zespołu red teamer, bez nawet wysuwania takiego żądania przez użytkownika. W klipie audio udostępnionym przez OpenAI można usłyszeć, jak GPT-4o krzyczy NIE!, a następnie kontynuuje wyjście głosem podobnym do głosu zespołu red teamer.

OpenAI ma zabezpieczenia, aby temu zapobiec, zezwalając tylko na niektóre wstępnie zatwierdzone głosy dla GPT-4o. Każdy głos wyjściowy wygenerowany przez ChatGPT-4o jest dopasowywany do próbki głosu w wiadomości systemowej jako głos bazowy.

Aby jeszcze bardziej zminimalizować ryzyko, model otrzymuje polecenie przerwania rozmowy, jeśli zostanie wykryte niezamierzone generowanie głosu. Ich klasyfikator wyjścia głosowego ma precyzję 0,96 w języku angielskim i 0,95 w języku innym niż angielski (dlatego ChatGPT-4o może nadmiernie odmawiać odpowiedzi na prośby głosowe w rozmowach w języku innym niż angielski).

Jednak wyniki System Card pokazują złożoność tworzenia chatbotów AI, które mogą symulować czyjś głos na podstawie krótkiej próbki i bez potrzeby rozległego szkolenia na tej próbce. Klonowanie głosu może służyć do podszywania się pod kogoś i dokonywania oszustw. OpenAI odkryło jednak, że ryzyko nieautoryzowanej generacji głosu jest minimalne.

Nawet jeśli odłożysz na bok ryzyko wykorzystania go do podszywania się i oszustwa ze względu na środki bezpieczeństwa, nadal będzie to dość niepokojące, gdy rozmawiasz z maszyną, a maszyna zaczyna odpowiadać twoim głosem, zupełnie niespodziewanie. Pewien Data Scientist na X nazwał to „fabułą kolejnego sezonu Black Mirror” i z pewnością tak się wydaje. Inny użytkownik na X twierdzi, że przydarzyło mu się to w wersji alfa ChatGPT-4o, ale nie wiadomo, czy to prawda, czy nie.

Nadal istnieje możliwość, że to się zdarzy następnym razem, gdy będziesz rozmawiać z ChatGPT-4o. I to jest PSA: Nie panikuj, jeśli tak się stanie, albo nie panikuj za bardzo.

OpenAI wdrożyło również zabezpieczenia, które mają zapewnić, że GPT-4o nie będzie identyfikował osób ani generował treści chronionych prawem autorskim, co stanowiło kolejne ryzyko odkryte w trakcie oceny.

Wśród innych zagrożeń, jakie firma znalazła w tym modelu, większość z nich umieściła w niskiej kategorii. Należą do nich cyberbezpieczeństwo, zagrożenia biologiczne i autonomia modelu. Jednak w przypadku perswazji ryzyko uznano za średnie: oznacza to, że niektóre próbki pisma wytworzone przez GPT-4o okazały się bardziej przekonujące niż tekst pisany przez człowieka w kwestii wpływania na opinie ludzi.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *