Những ngày qua, việc công ty công nghệ Mỹ OpenAI giới thiệu công cụ nhân bản giọng nói “Voice Engine” đã thu hút sự quan tâm lớn của các chuyên gia công nghệ. Công cụ này có thể tái tạo giọng nói, ngữ điệu và các mẫu giọng nói của một người dựa trên mẫu âm thanh gốc chỉ 15 giây. “Voice Engine” được đánh giá là một công nghệ mới đầy tiềm năng, song cũng tạo ra không ít rủi ro đối với sự an toàn của người dùng mạng Internet. Để hiểu rõ hơn về công cụ nhân bản giọng nói này, mời quý vị và các bạn theo dõi nội dung sau đây.
OpenAI bắt đầu phát triển Voice Engine hồi năm 2022 và triển khai thử nghiệm công cụ này từ cuối năm 2023. Voice Engine có khả năng đọc và dịch nội dung giữa các ngôn ngữ khác nhau. Nó có thể sao chép giọng nói của người nào đó dựa trên mẫu âm thanh 15 giây. OpenAI cho biết chưa phát hành rộng rãi Voice Engine vào thời điểm này do lo ngại vấn đề bảo mật. Tuy nhiên, OpenAI bày tỏ hy vọng sẽ có thể sớm bắt đầu các cuộc đối thoại với các nhà quản lý để triển khai công nghệ này một cách có trách nhiệm.
“Điều quan trọng là mọi người hiểu được hướng đi của công nghệ, những lợi thế mà các công cụ như Voice Engine có thể tạo ra cho người dùng.”

Xoay quanh công cụ nhân bản giọng nói của Openai

Hãng công nghệ giáo dục Age of Learning (Mỹ) cho biết họ có thể sử dụng Voice Engine để lồng tiếng cho kịch bản phim nhằm phục vụ mục đích giáo dục. Các nhà nghiên cứu thuộc Viện Khoa học Thần kinh Norman Prince (Mỹ) thì cho hay họ đã sử dụng Voice Engine để “khôi phục giọng nói” cho một phụ nữ mắc khối u não. Ở chiều ngược lại, nhiều chuyên gia an ninh mạng bày tỏ lo ngại, Voice Engine có nguy cơ bị các đối tượng xấu sử dụng để phát tán thông tin sai lệch.
“Chúng ta đang chứng kiến sự phát triển mạnh mẽ của các công cụ tạo ra hình ảnh, video, âm thanh dựa trên công nghệ trí tuệ nhân tạo. Các công cụ nhân bản giọng nói ngày càng phổ biến, có giá rẻ, dễ sử dụng và khó theo dõi.”
“Tôi rất ấn tượng với công cụ Voice Engine. Song, tôi lo ngại  những công cụ mạnh mẽ như thế có thể bị lợi dụng để tạo ra các bản ghi âm giả mạo nhằm mục đích lừa đảo.”
“Giờ đây, chúng ta rất khó phân biệt giữa hình ảnh, video thật và giả mạo. Đã đến lúc các nước cần quan tâm nhiều hơn đến việc siết chặt quản lý AI.”
Nhiều nước trên thế giới gần đây đã ghi nhận không ít vụ việc các đối tượng xấu sử dụng AI để tạo ra giọng nói giả mạo nhằm lừa đảo người khác. Các chuyên gia đang bày tỏ lo ngại về một làn sóng thông tin sai lệch được tạo ra bằng kỹ thuật chỉnh sửa ảnh, video deepfake, nhất là trong bối cảnh nhiều nước sẽ tổ chức các cuộc bầu cử quan trọng trong năm 2024.

Dương Tuyển

Trả lời

Email của bạn sẽ không được hiển thị công khai. Các trường bắt buộc được đánh dấu *