Cuộc cách mạng viết mã do AI tạo ra đang đẩy ngành phần mềm vào trạng thái hỗn loạn. Khi AI không chỉ nói mà còn hành động, các rủi ro về quyền truy cập, trách nhiệm và giám sát trở nên cấp thiết hơn bao giờ hết.
Có một từ tóm gọn thực trạng ngành phần mềm hiện nay: hỗn loạn. Tôi định viết...
Flowise, nền tảng mã nguồn mở cho ứng dụng LLM, vừa bị phát hiện có lỗ hổng mức tối đa cho phép thực thi mã JavaScript tuỳ ý. Người dùng nên cập nhật ngay lên phiên bản mới nhất và kiểm tra hệ thống để tránh nguy cơ bị tấn công.
Flowise là một nền tảng low‑code cho phép xây dựng luồng AI...
Anthropic vừa công bố Project Glasswing — một sáng kiến dùng mô hình AI tiên tiến để phát hiện và sửa lỗ hổng phần mềm. Dự án kết hợp cùng nhiều công ty lớn nhằm dùng AI chống lại các cuộc tấn công do AI hỗ trợ, nhưng cũng đặt ra rủi ro nếu công cụ rơi vào tay kẻ xấu.
Project Glasswing là gì...
Công cụ AI giúp lập trình viên viết code nhanh hơn nhưng đã tạo ra núi mã chưa được kiểm tra, đặt ra rủi ro bảo mật mới. Nhiều công ty đang vật lộn với lượng mã tăng nhanh và thiếu chuyên gia an ninh ứng dụng để rà soát.
AI tăng tốc phát triển, đồng thời tạo ra áp lực kiểm duyệt
Công cụ lập...
Thành phần mã nguồn mở đang là điểm mù an ninh trong nhiều chuỗi cung ứng kỹ thuật số. Những thư viện và container công khai có thể thay đổi bất ngờ, tạo ra rủi ro hệ thống mà các mô hình quản trị truyền thống thường bỏ qua.
Ngày nay, thành phần mã nguồn mở tạo nền tảng cho hầu hết dịch vụ...
Anthropic vừa giới thiệu Code Review cho Claude Code — công cụ tự động kiểm tra pull request trên GitHub để phát hiện lỗi và lỗ hổng. Công ty cho biết chi phí trung bình mỗi lần kiểm duyệt khoảng 15–25 USD và hiện đang mở dưới dạng bản nghiên cứu cho gói Teams và Enterprise.
Anthropic vừa...
Các nhà nghiên cứu bảo mật từ Check Point phát hiện ba lỗ hổng trong trợ lý lập trình Claude Code, có thể cho phép thực thi mã từ xa hoặc đánh cắp khóa API. Họ cảnh báo khi tích hợp AI sâu vào quy trình làm việc, biện pháp bảo mật cũng phải được nâng cấp tương ứng.
Tóm tắt
Các chuyên gia từ...
Nghiên cứu cho thấy các mô hình ngôn ngữ lớn (LLM) thường chỉ chọn mã an toàn khoảng 55% thời gian. Những giới hạn cơ bản về ngữ cảnh, dữ liệu huấn luyện và khả năng nhận thức rủi ro khiến AI không thể thay thế chuyên gia bảo mật.
Giới hạn nền tảng của LLM với bảo mật
Nhiều nghiên cứu, trong...
Mô hình ngôn ngữ lớn đang tạo ra mã chạy tốt, nhưng an toàn phần mềm đang bị bỏ lại phía sau. Nghiên cứu cho thấy chỉ khoảng 55% mã do LLM sinh ra là an toàn, trong khi kẻ tấn công tận dụng AI để tìm lỗ hổng nhanh hơn.
Mô hình ngôn ngữ lớn (LLM) đã thay đổi cách phát triển phần mềm khi có thể...
Nhiều chính phủ và doanh nghiệp tin rằng lưu dữ liệu trong nước sẽ an toàn hơn, nhưng đó chủ yếu là giải pháp hành chính và chính trị. Cuộc chiến an ninh thực sự nằm ở tính toàn vẹn của phần mềm và chuỗi cung ứng phần mềm.
Chủ quyền dữ liệu không khắc phục lỗ hổng kỹ thuật
Trong bối cảnh địa...
Các nhà nghiên cứu an ninh phát hiện nhóm KONNI dùng mã độc do AI tạo để tấn công nhà phát triển blockchain và crypto. Chiến dịch lợi dụng email lừa đảo nhằm thâm nhập hạ tầng đám mây, kho mã nguồn và khóa API.
KONNI chuyển hướng tấn công sang nhà phát triển
Security Check Point Research...
Vibe coding—việc dùng công cụ AI tạo mã bằng prompt thay cho viết code truyền thống—đang bùng nổ nhờ khả năng tăng tốc phát triển và mở cửa cho nhiều người hơn. Tuy nhiên, phương pháp này cũng mang theo những rủi ro bảo mật và vận hành đáng kể nếu thiếu giám sát chuyên môn.
Vibe coding là gì...