OpenAI ra mắt API cho ChatGPT dành riêng cho khách hàng doanh nghiệp
API cho phép mọi doanh nghiệp tích hợp công nghệ ChatGPT vào các ứng dụng, trang web, sản phẩm và dịch vụ của họ.
Vào tháng Hai, ChatGPT Plus được ra mắt và nay, Open AI đã giới thiệu một API cho phép mọi doanh nghiệp tích hợp công nghệ ChatGPT vào các ứng dụng, trang web, sản phẩm và dịch vụ của họ
Phải nói ChatGPT , AI tạo văn bản miễn phí được phát triển bởi công ty khởi nghiệp OpenAI có trụ sở tại San Francisco, là một cú hít lớn đầu năm 2023.
Cho đến tháng 12 vừa qua, ChatGPT được ước tính có hơn 100 triệu người dùng hoạt động hàng tháng và đã thu hút sự chú ý của giới truyền thông, tạo ra vô số meme trên mạng xã hội, được sử dụng để viết hàng trăm cuốn sách điện tử trên cửa hàng Kindle của Amazon và được ghi nhận là đồng tác giả của ít nhất một bài báo khoa học.
Tuy nhiên, OpenAI là một doanh nghiệp - dù có lợi nhuận tối đa - phải tìm cách kiếm tiền từ ChatGPT để đáp ứng nhu cầu của các nhà đầu tư. Vào tháng Hai, ChatGPT Plus được ra mắt và nay, Open AI đã giới thiệu một API cho phép mọi doanh nghiệp tích hợp công nghệ ChatGPT vào các ứng dụng, trang web, sản phẩm và dịch vụ của họ. Theo Greg Brockman, chủ tịch của OpenAI, API luôn là kế hoạch và anh ấy đã có cuộc gọi video trước khi ra mắt API ChatGPT.
Brockman nói: “Chúng tôi phải mất một thời gian để đưa các API này đến một mức chất lượng nhất định. Tôi nghĩ nó đại loại như thế này, kiểu như chỉ có thể đáp ứng nhu cầu và quy mô.”
Theo Brockman, API ChatGPT được cung cấp bởi mô hình AI "gpt-3.5-turbo" đang phổ biến tại OpenAI. Đây là mô hình tạo văn bản mạnh nhất mà OpenAI cung cấp thông qua bộ API của mình. Biệt danh "turbo" thể hiện rằng đây là phiên bản GPT-3.5 được tối ưu hóa và có thời gian phản hồi nhanh hơn mà OpenAI đang thử nghiệm cho ChatGPT.
Với giá 0,002 đô la trên 1.000 mã thông báo hoặc khoảng 750 từ, Brockman cho biết API có thể thúc đẩy nhiều trải nghiệm khác nhau, bao gồm các ứng dụng "không phải là trò chuyện". Các ứng dụng đầu tiên được sử dụng API bao gồm Snap, Quizlet, Instacart và Shopify.
Ban đầu, gpt-3.5-turbo được phát triển để giảm chi phí tính toán của ChatGPT. Giám đốc điều hành của OpenAI, Sam Altman, từng gọi chi phí tính toán của ChatGPT là "ngon mắt" và ước tính rằng chi phí đó sẽ tăng lên nhanh chóng với hơn một triệu người dùng sử dụng ChatGPT.
Nhưng Brockman nói rằng gpt-3.5-turbo được cải thiện theo những cách khác.“Nếu bạn đang xây dựng một gia sư hỗ trợ AI, bạn không bao giờ muốn gia sư chỉ đưa ra câu trả lời cho học sinh. Bạn muốn nó luôn giải thích và giúp họ tìm hiểu — đó là một ví dụ về loại hệ thống mà bạn có thể xây dựng [với API],” Brockman nói. “Chúng tôi nghĩ rằng đây sẽ là một thứ gì đó giống như làm cho API trở nên dễ sử dụng và dễ tiếp cận hơn nhiều.”
API ChatGPT được sử dụng làm nền tảng cho nhiều ứng dụng trí tuệ nhân tạo (AI) hiện nay. Các ví dụ bao gồm chatbot của Snap dành cho người dùng Snapchat+ và tính năng gia sư ảo Q-Chat mới của Quizlet. Shopify cũng đã sử dụng ChatGPT API để tạo ra một trợ lý cá nhân hóa cho các đề xuất mua sắm. Ngoài ra, Instacart đã tích hợp API này để phát triển tính năng Ask Instacart, cho phép khách hàng hỏi về thực phẩm và nhận được câu trả lời dựa trên dữ liệu sản phẩm từ cửa hàng bán lẻ của công ty đối tác.
Theo JJ Zhuang, kiến trúc sư trưởng của Instacart, mua sắm hàng tạp hóa có thể đòi hỏi một khối lượng tinh thần lớn, với rất nhiều yếu tố phức tạp. Vì vậy, việc áp dụng trí tuệ nhân tạo vào quá trình này sẽ giúp người dùng tiết kiệm thời gian và tinh thần hơn. Hệ thống AI của Instacart khi kết hợp với ChatGPT của OpenAI sẽ cho phép khách hàng lên kế hoạch cho bữa ăn và bày biện thức ăn một cách dễ dàng và thú vị hơn. Hiện tại, Instacart đang tiến hành thử nghiệm tính năng này trên ứng dụng của mình.
Nguồn ảnh: Instacart
Tuy nhiên, những người đã theo dõi chặt chẽ câu chuyện ChatGPT có thể tự hỏi liệu nó đã chín muồi để phát hành chưa — và đúng như vậy.
Ngay từ đầu, người dùng đã có thể nhắc ChatGPT trả lời các câu hỏi theo cách phân biệt chủng tộc và phân biệt giới tính , phản ánh dữ liệu sai lệch mà ChatGPT được đào tạo ban đầu. (Dữ liệu đào tạo của ChatGPT bao gồm rất nhiều nội dung trên internet, cụ thể là sách điện tử, bài đăng trên Reddit và bài viết trên Wikipedia.) ChatGPT cũng phát minh ra sự thật mà không tiết lộ rằng nó đang làm như vậy, một hiện tượng trong AI được gọi là ảo giác .
ChatGPT và các hệ thống tương tự có thể dễ dàng bị tấn công bởi các lời nhắc từ đối thủ độc hại, khiến chúng thực hiện các tác vụ không mong muốn. Ví dụ như trên Reddit, cộng đồng đã cố gắng "bẻ khóa" ChatGPT và vượt qua các biện pháp bảo vệ của OpenAI hay một nhân viên của Scale AI đã có thể yêu cầu ChatGPT tiết lộ thông tin về hoạt động kỹ thuật bên trong của nó.
OpenAI cam kết bảo vệ các thương hiệu khỏi các cuộc tấn công. Theo Brockman, một lý do là do các cải tiến liên tục trong kỹ thuật. Tuy nhiên, ông cũng đưa ra một tiếp cận mới và ít gây tranh cãi hơn là ChatML - một ngôn ngữ đánh dấu trò chuyện. ChatML cung cấp văn bản cho API ChatGPT dưới dạng một chuỗi tin nhắn cùng với siêu dữ liệu. Điều này khác với ChatGPT tiêu chuẩn, sử dụng văn bản thô được biểu thị dưới dạng mã thông báo.
Ví dụ: đưa ra lời nhắc “Một số ý tưởng tổ chức tiệc thú vị cho sinh nhật lần thứ 30 của tôi là gì?” nhà phát triển có thể chọn nối thêm lời nhắc đó bằng một lời nhắc bổ sung như “Bạn là một chatbot trò chuyện thú vị được thiết kế để giúp người dùng giải đáp các câu hỏi mà họ đặt ra. Bạn nên trả lời một cách trung thực và vui vẻ!” hoặc “Bạn là bot” trước khi API ChatGPT xử lý bot. Theo Brockman, các hướng dẫn này giúp điều chỉnh tốt hơn — và lọc — các phản hồi của mô hình ChatGPT.
“Chúng tôi đang chuyển sang API cấp cao hơn. Nếu bạn có một cách trình bày đầu vào hệ thống có cấu trúc hơn, trong đó bạn nói, 'cái này là của nhà phát triển' hoặc 'cái này là của người dùng'... Tôi mong rằng, với tư cách là nhà phát triển, bạn thực sự có thể mạnh mẽ hơn [ sử dụng ChatML] để chống lại các kiểu tấn công nhanh chóng này,” Brockman nói.
Ngoài ra, "toàn quyền kiểm soát" đối với việc cập nhật mô hình thường. OpenAI đã phát hành gpt-3.5-turbo, một mô hình ổn định mới nhất, cho phép các nhà phát triển nâng cấp lên mô hình này. Tuy nhiên, các nhà phát triển cũng có thể chọn sử dụng mô hình cũ hơn nếu muốn. Những khách hàng có nhu cầu, đặc biệt là các doanh nghiệp lớn, có thể sử dụng các gói dung lượng chuyên dụng để kiểm soát hiệu suất hệ thống khi chạy các mô hình OpenAI. Điều này cho phép khách hàng kích hoạt các tính năng như giới hạn ngữ cảnh dài hơn, làm cho các mô hình như gpt-3.5-turbo ít gây ảo giác hơn.
Các khách hàng sử dụng dung lượng chuyên dụng có thể mong đợi các mô hình gpt-3.5-turbo với cửa sổ ngữ cảnh lên tới 16k, gấp bốn lần so với mô hình ChatGPT tiêu chuẩn. Điều này cho phép họ nhận được số lượng mã thông báo lớn hơn, giúp mô hình xử lý được nhiều dữ liệu hơn và tạo ra các câu trả lời chính xác hơn. Tuy nhiên, Brockman nhấn mạnh rằng việc tăng cường hiệu suất có thể dẫn đến đánh đổi về hiệu suất.
OpenAI hiện đang cung cấp các gói dung lượng chuyên dụng cho khách hàng, nhưng việc phát hành chung cho tất cả các khách hàng có thể sẽ đến sau.
OpenAI chắc hẳn sẽ phải đối mặt với áp lực ngày càng tăng để tạo ra lợi nhuận, sau khi nhận được khoản đầu tư hàng tỷ đô la từ Microsoft.
Nguồn: TechCrunch
Nếu bạn quan tâm đến các thông tin về AI hoặc các cách ứng dụng AI vào công việc, hãy tham gia các nhóm cộng đồng dưới đây để chia sẻ cũng như cập nhật thêm tin tức hữu ích:
WorkBetter - Cộng đồng tối ưu vận hành cho SMEs
Cộng đồng Hướng dẫn - Chia sẻ Model AI