Потребителски вход

Запомни ме | Регистрация
Постинг
01.08.2022 08:50 - Amazon показва функция Alexa, която имитира гласовете на вашите починали роднини
Автор: zahariada Категория: Други   
Прочетен: 116 Коментари: 0 Гласове:
0

Последна промяна: 01.08.2022 08:54


  Amazon показва функция Alexa, която имитира гласовете на вашите починали роднини 

image

Снимка от Дан Сейферт / The Verge

Хей, Алекса, това е адски странно

От Джеймс Винсент  23 юни 2022 г., 6:21 сутринта EDT  

https://www.youtube.com/watch?t=3719&v=22cb24-sGhg&feature=emb_imp_woyt

https://www.theverge.com/2022/6/23/23179748/amazon-alexa-feature-mimic-voice-dead-relative-ai?fbclid=IwAR04gsgCk5ddcxOu0tMvMXrVM8o9tgishSX1lmh3VDJX-eexYMZXW58Ezp4

Снимка от Дан Сейферт / The Verge

Amazon разкри експериментална функция на Alexa, която позволява на AI асистента да имитира гласовете на починали роднини на потребителите.

Компанията демонстрира функцията на годишната си конференция MARS, показвайки видео, в което дете моли Алекса да прочете приказка преди лягане с гласа на починалата си баба.

„Както видяхте в това преживяване, вместо гласът на Алекса, който чете книгата, това е гласът на бабата на детето“, каза Рохит Прасад, главен учен на Amazon за Alexa AI. Прасад представи клипа, като каза, че добавянето на „човешки атрибути“ към AI системите е все по-важно „в тези времена на продължаващата пандемия, когато толкова много от нас са загубили някого, когото обичат“.

„Въпреки че изкуственият интелект не може да премахне тази болка от загубата, той определено може да направи спомените им трайни“, каза Прасад. Можете да гледате самото демо по-долу:

Amazon не е дал индикация дали тази функция някога ще стане публична, но казва, че нейните системи могат да се научат да имитират нечий глас само от една минута записано аудио. В епохата на изобилие от видеоклипове и гласови бележки, това означава, че е в обсега на средния потребител да клонира гласовете на любимите си хора - или на всеки друг, който харесва.


Въпреки че това конкретно приложение вече е противоречиво, като потребителите в социалните медии наричат ​​функцията „страховита“ и „чудовищна“, подобна гласова мимикрия с изкуствен интелект става все по-често срещана през последните години. Тези имитации често са известни като „audio deepfakes“ и вече се използват редовно в индустрии като подкастинг, филми и телевизия и видео игри.

АУДИО ДЪЛБОКИТЕ ФАЛШИФИКАЦИИ ВЕЧЕ СА ЧЕСТО СРЕЩАНИ В ПОДКАСТИНГА И ФИЛМИТЕ

Много пакети за аудиозаписи например предлагат на потребителите опцията да клонират отделни гласове от своите записи. По този начин, ако домакин на подкаст провали своята или неговата реплика, например, звуковият инженер може да редактира казаното от тях, просто като напише нов скрипт. Възпроизвеждането на редове безпроблемен говор изисква много работа, но много малки редакции могат да бъдат направени с няколко кликвания.

Същата технология е използвана и във филмите. Миналата година беше разкрито, че документален филм за живота на главния готвач Антъни Бурдейн, който почина през 2018 г., е използвал AI, за да клонира гласа му, за да прочете цитати от имейли, които е изпратил. Много фенове бяха отвратени от прилагането на технологията, наричайки я „отвратителна“ и „измамна“. Други защитиха използването на технологията като подобна на други реконструкции, използвани в документалните филми.

СВЪРЗАНИ

В бъдеще всеки ще може да клонира гласа си

СВЪРЗАНИ

Слушайте гласов актьор с изкуствен интелект, който се опитва да флиртува с вас

Прасад от Amazon каза, че функцията може да позволи на клиентите да имат „трайни лични отношения“ с починалия и със сигурност е вярно, че много хора по света вече използват AI за тази цел. Хората вече са създали чатботове, които имитират мъртви близки , например, обучавайки AI въз основа на съхранени разговори. Добавянето на точни гласове към тези системи — или дори видео аватари — е напълно възможно с помощта на днешната AI технология и вероятно ще стане по-широко разпространено.

Съвсем друг въпрос обаче е дали клиентите ще искат техните мъртви близки да станат цифрови AI марионетки.




Гласувай:
0



Спечели и ти от своя блог!
Няма коментари
Търсене

За този блог
Автор: zahariada
Категория: Политика
Прочетен: 36034751
Постинги: 21737
Коментари: 21562
Гласове: 30248
Архив
Календар
«  Февруари, 2023  
ПВСЧПСН
12345
6789101112
13141516171819
20212223242526
2728