Hệ thống mới của hãng sẽ tập trung vào hoạt động phân tích và có khả năng đưa ra kết quả chuyên sâu hơn, giúp các công ty phát triển nhiều dịch vụ tạo sinh văn bản phức tạp, phân tích và các sản phẩm đầu ra khác.
Mô hình AI này vẫn đang trong quá trình phát triển nên chưa có tên và thông tin cụ thể, dù vậy Meta đặt mục tiêu sẽ ra mắt mô hình AI mới vào năm 2024 và cho biết thêm mô hình này sẽ tiên tiến hơn nhiều so với mô hình ngôn ngữ Llama 2 mà công ty đã ra mắt trước đó.
Llma 2 là mô hình ngôn ngữ trí tuệ nhân tạo mã nguồn mở được Meta phát hành vào tháng 7 năm nay, phân phối thông qua dịch vụ đám mây Azure của Microsoft, nhằm cạnh tranh với ChatGPT của OpenAI và Bard của Google.
Kể từ khi ChatGPT của OpenAI ra mắt và bùng nổ giới công nghệ vào cuối năm ngoái, nhiều công ty công nghệ bắt đầu đầu tư nhiều hơn vào thị trường trí tuệ nhân tạo.
Bloomberg đưa tin, tháng 7, Apple phát triển một công cụ chatbot trí tuệ nhân tạo tạo sinh có tên gọi là Apple GPT, hứa hẹn sẽ cạnh tranh với ChatGPT của OpenAI và Google Bard. Chatbot này sử dụng khung mô hình ngôn ngữ lớn độc quyền của Apple có tên là "Ajax", chạy trên Google Cloud và được xây dựng bằng Google JAX, một khung được tạo ra để tăng tốc nghiên cứu học máy (machine learning).
Bên cạnh mô hình ngôn ngữ lớn, Apple sử dụng rất nhiều công nghệ máy học trong các sản phẩm của mình, từ nhận dạng giọng nói Siri đến khả năng nhận diện khuôn mặt thậm chí cả nhận diện thú cưng.
Trước đó, tỷ phú Elon Musk công bố sự ra mắt của một công ty trí tuệ nhân tạo mới có tên xAI với mục tiêu trở thành đối thủ cạnh tranh với các công ty công nghệ khác như OpenAI, Google và Anthropic.
Tuy nhiên, các chuyên gia công nghệ cũng cảnh báo, các nhà đầu tư hay công ty công nghệ nên cẩn trọng trước những tác động tiềm ẩn khi ứng dụng công nghệ AI.
"Khi bắt đầu phát triển và triển khai AI tổng quát, các tổ chức sẽ phải đối mặt với nhiều thách thức về độ tin cậy, rủi ro, an ninh, quyền riêng tư và đạo đức.", chuyên gia Frances Karamouzis, Phó Chủ tịch bộ phận phân tích trong nhóm nghiên cứu của Gartner chia sẻ.
Chính phủ nhiều nước đã yêu cầu các tổ chức, công ty áp dụng phương pháp đảm bảo tính đạo đức khi triển khai các giải pháp AI. Đơn cử như hồi tháng 5/2023, Nhà Trắng đã yêu cầu các công ty công nghệ hàng đầu như Microsoft và Google phải có trách nhiệm pháp lý để đảm bảo an toàn cho các sản phẩm AI của họ trước khi ra mắt công chúng, cũng như trong việc bảo vệ xã hội trước những mối nguy hại tiềm tàng mà trí tuệ nhân tạo có thể gây ra.