
Bộ phim dài 5 ngày, trong đó có cảnh sa thải Giám đốc điều hành OpenAI Sam Altman và sau đó phục hồi ông làm Giám đốc điều hành của công ty, chỉ là một ví dụ khác về việc lĩnh vực Thung lũng Silicon có thể trở nên rắc rối như thế nào. Tuy nhiên, việc Altman bị sa thải không phải do ông duy trì thái độ nổi loạn với hội đồng quản trị mà do một phát hiện đột phá về AI của các nhà nghiên cứu OpenAI có khả năng gây nguy hiểm cho nhân loại.
Một số nhà nghiên cứu của OpenAI đã viết một lá thư cho hội đồng quản trị, thông báo cho họ về những mối nguy hiểm mà bước đột phá AI này mang lại, cuối cùng dẫn đến việc sa thải Sam Altman
Giả sử AI không được kiểm soát hoặc không được kiểm soát, nó có thể dẫn đến những kết quả có hại và đó là những gì Reuters đã đưa tin khi các nguồn tin quen thuộc với vấn đề này nói với ấn phẩm rằng hội đồng quản trị ngày càng quan tâm đến việc AI đang phát triển như thế nào và Sam Altman có thể không như thế nào đã được biết rõ về hậu quả. Một thông báo nội bộ gọi dự án là 'Q*' hoặc Q-star, lưu ý rằng đây có thể là một bước đột phá trong nỗ lực tạo ra trí tuệ nhân tạo tổng hợp (AGI) của công ty khởi nghiệp AI.
>> Xem ngay: “Cơn sốt AI” càn quét Trung Quốc: GPU NVIDIA RTX 4090 bị cấm hàng loạt bị các công ty Trung Quốc
OpenAI tin rằng AGI có thể vượt qua con người trong hầu hết các nhiệm vụ, điều này cũng khiến nó trở nên cực kỳ nguy hiểm vì nó có thể hạn chế các lựa chọn về những gì người dân toàn cầu có thể làm để đạt được sinh kế, mặc dù hậu quả có thể đạt đến một quy mô hoàn toàn mới. Với nguồn tài nguyên gần như vô hạn, mô hình AGI mới có thể giải quyết một số vấn đề toán học nhất định và mặc dù những vấn đề này chỉ tương đương với các học sinh cấp lớp, việc vượt qua chúng khiến các nhà nghiên cứu của OpenAI rất lạc quan về tương lai của Q*.
Hiện tại, AI không thể giải các bài toán một cách đáng tin cậy, đó là lúc lợi thế của AGI phát huy. Báo cáo cho biết thêm các nhà nghiên cứu tin rằng khi giải các bài toán, chỉ có một câu trả lời đúng và nếu AI có thể vượt qua trở ngại này thì đó được coi là một cột mốc lớn. Một khi AI có thể giải quyết các vấn đề toán học một cách nhất quán, nó có thể đưa ra các quyết định giống với trí thông minh của con người đồng thời thực hiện nghiên cứu khoa học.
Bức thư do các nhà nghiên cứu OpenAI viết nói về những mối nguy hiểm mà AI gây ra cho nhân loại, nhưng những lo ngại chính xác về an toàn vẫn chưa được nêu rõ. Đã có những cuộc thảo luận bất tận về cách AI có thể dẫn đến sự hủy diệt của loài người, thậm chí các phương tiện truyền thông đã phát hành trước đây mô tả những mối nguy hiểm đó khi con người không hành động cẩn thận. Với tất cả những biến cố mà OpenAI, Sam Altman và vô số người khác đã trải qua trong vài ngày qua, có vẻ như tất cả họ phải sớm nghỉ ngơi và đưa ra những cuộc nói chuyện ý nghĩa về cách đưa mô hình mới này phát triển mà không cần những rủi ro nêu trên.
Nguồn tin: Wccftech
>> Xem thêm các bài viết liên quan:
Phát hiện CPU Core i3-14100 được bày bán tràn lan tại Trung Quốc
Rò rỉ điểm hiệu năng của CPU Intel Core Ultra 7 155H và 155U trên laptop Xiaomi