Investing.com — OpenAI đã cắt giảm thời gian và nguồn lực dành cho việc kiểm tra an toàn của các mô hình trí tuệ nhân tạo, làm dấy lên lo ngại về các biện pháp bảo vệ thích hợp cho công nghệ của họ, theo báo cáo của Financial Times vào hôm thứ Sáu.
Theo báo cáo của FT, trích dẫn từ tám người am hiểu vấn đề, các nhân viên và nhóm đánh giá rủi ro và hiệu suất của các mô hình OpenAI gần đây chỉ được cấp vài ngày để tiến hành đánh giá.
Báo cáo của FT cho biết quy trình kiểm tra của công ty khởi nghiệp này đã trở nên kém toàn diện hơn với ít nguồn lực và thời gian dành cho việc giảm thiểu rủi ro.
Báo cáo này được đưa ra trong bối cảnh OpenAI đang chạy đua để phát hành các mô hình AI cập nhật và duy trì lợi thế cạnh tranh, đặc biệt là giữa sự cạnh tranh gay gắt từ các đối thủ mới của Trung Quốc như DeepSeek.
OpenAI đang chuẩn bị phát hành mô hình o3 mới vào tuần tới, mặc dù chưa xác định ngày phát hành cụ thể. Tuy nhiên, việc vội vã phát hành các mô hình cập nhật này có thể đang làm ảnh hưởng đến các biện pháp kiểm tra an toàn của công ty.
Tuy nhiên, các báo cáo về thời gian kiểm tra an toàn giảm xuống cũng xuất hiện trong bối cảnh AI đang chuyển hướng sang suy luận - tức là xử lý và tạo ra dữ liệu mới - thay vì đào tạo, vốn sử dụng dữ liệu hiện có để cải thiện khả năng của mô hình AI.
OpenAI đã thông báo vào đầu tháng 4 rằng họ đã huy động được 40 tỷ đô la trong vòng gọi vốn do tập đoàn SoftBank Group Corp. (TYO:9984) của Nhật Bản dẫn đầu, định giá công ty ở mức 300 tỷ đô la.
Bài viết này được tạo và dịch với sự hỗ trợ của AI và đã được biên tập viên xem xét. Để biết thêm thông tin, hãy xem Điều Kiện&Điều Khoản của chúng tôi.