Cảnh sát Nhật Bản sắp thử nghiệm một mạng lưới camera an ninh tích hợp trí tuệ nhân tạo (AI) với hy vọng ngăn chặn được các vụ trọng án trước khi chúng xảy ra.
Hệ thống ngăn ngừa nạn trộm cắp do công ty khởi nghiệp Vaak ở Nhật Bản phát triển
Theo Cơ quan Cảnh sát Quốc gia Nhật Bản, các thử nghiệm giám sát tiền tội phạm sẽ không sử dụng khả năng “nhận dạng khuôn mặt” của công nghệ trên.
Thay vào đó, các camera AI sẽ tập trung vào nhận dạng dựa trên mô hình máy học đối với ba yếu tố gồm: “phát hiện hành vi” đối với các hoạt động đáng nghi ngờ, “phát hiện vật thể” đối với súng và các loại vũ khí khác và “phát hiện xâm nhập” để bảo vệ những khu vực hạn chế.
Giới chức cảnh sát Nhật Bản cho biết họ dự định khởi động chương trình thử nghiệm AI trong năm tài chính này, vốn kết thúc vào tháng 3.2024.
Trong khi một số chuyên gia chống khủng bố khẳng định rằng các máy ảnh AI mới sẽ giúp điều động lực lượng cảnh sát hiệu quả hơn và cung cấp nhiều phương tiện hơn để cảnh giác với tội phạm, những người khác lo lắng về việc đưa các thuật toán vào công việc của cảnh sát.
Quốc gia này từng rúng động sau vụ ám sát cựu Thủ tướng Shinzo Abe cách đây tròn một năm, cũng như bị sốc trước âm mưu ám sát mưu bất thành nhằm vào Thủ tướng Fumio Kishida vào tháng 4 năm nay. Do đó, lực lượng cảnh sát đã đẩy mạnh đấu tranh để ngăn chặn tội ác nhằm vào các quan chức cấp cao, thường do các đối tượng “tội phạm đơn độc” thực hiện.
Cảnh sát đã sử dụng thuật ngữ “tội phạm đơn độc” để mô tả một bộ phận đang gia tăng trong xã hội Nhật Bản: những thanh niên cô đơn và bất mãn được gọi là “otaku”, đôi khi tỏ ra bạo lực mặc dù không có tiền sử phạm tội.
Cuộc thử nghiệm camera AI của Cơ quan Cảnh sát Quốc gia Nhật Bản đã diễn ra vào dịp kỷ niệm một năm ngày cựu Thủ tướng Abe bị sát hại.
Mặc dù phía cảnh sát Nhật Bản không cung cấp thông tin chi tiết, nhưng những thử nghiệm camera an ninh AI trước đây tại nước này đã tập trung vào phát hiện dấu hiệu bồn chồn, liên tục nhìn ngó xung quanh cùng một số hành vi tiêu biểu khác.
Tính năng phân tích bằng AI cũng sẽ giúp hệ thống phát hiện các vật thể đáng ngờ như súng và các loại vũ khí khác (phát hiện đối tượng), trong khi một số vị trí được bảo vệ nhất định sẽ được lập trình để phát hiện những kẻ xâm phạm nguy hiểm (phát hiện xâm nhập).
Hiện tại, việc Cơ quan Cảnh sát Quốc gia sử dụng công nghệ “dự đoán tội phạm” chỉ mang tính thử nghiệm.
Theo nhật báo Nikkei, cơ quan cảnh sát sẽ không sử dụng tính năng “nhận dạng khuôn mặt” của công nghệ mà chỉ tập trung vào các hành vi chung và các đối tượng khả nghi.
Nhà phân tích Isao Itabashi - chuyên gia về chiến lược phòng thủ chống khủng bố - tại Hội đồng Chính sách công có trụ sở tại Tokyo, nói với Nikkei rằng Nhật Bản không phải là quốc gia đầu tiên triển khai loại công nghệ tiền tội phạm này. Ông Itabashi cho biết: “Camera AI đã được sử dụng rộng rãi ở châu Âu, Mỹ và châu Á, và công nghệ phát hiện hành vi đang được các công ty Nhật Bản nghiên cứu”.
Trên thực tế, một cuộc khảo sát năm 2019 do Quỹ Carnegie vì Hòa bình Quốc tế thực hiện đã báo cáo rằng công nghệ camera an ninh AI đã được sử dụng tại 52 trong số 176 quốc gia được đề cập trong nghiên cứu của họ.
Pháp gần đây đã thông qua đạo luật cho phép cài đặt các hệ thống an ninh AI để bảo vệ Paris trước kỳ Olympic và Paralympic 2024.
Lĩnh vực tư nhân của Nhật Bản cũng đã đi trước lực lượng cảnh sát quốc gia nhiều năm trong việc sử dụng camera an ninh được trang bị AI.
Tháng 5 năm ngoái, tại hội nghị thượng đỉnh G7 ở Hiroshima, công ty đường sắt Nhật Bản JR West đã triển khai một hệ thống thông báo cho các đội an ninh về hoạt động mà AI cho là đáng ngờ.
Và vào năm 2019, công ty khởi nghiệp Vaak của Nhật Bản đã tiết lộ một phần mềm mới được thiết kế để xác định những kẻ trộm cắp tình nghi dựa trên ngôn ngữ cơ thể.
Vaak cho biết AI của họ có thể phân biệt giữa hành vi bình thường của khách hàng và hành vi tội phạm, chẳng hạn như nhét hàng vào áo khoác mà không trả tiền.
Sau đó, hệ thống này sẽ cảnh báo cho nhân viên cửa hàng về hành vi đáng ngờ thông qua ứng dụng điện thoại thông minh.
Tuy nhiên, mặc dù được thiết kế để trấn áp hành vi trộm cắp, công nghệ đó vẫn làm dấy lên lo ngại rằng mọi người có thể bị nhắm mục tiêu không công bằng do phân biệt chủng tộc và các thành kiến khác.
Một nghiên cứu được công bố vào năm 2018 cho thấy nhiều hệ thống AI phổ biến có khuynh hướng phân biệt chủng tộc và phân biệt giới tính.
Cộng đồng nghiên cứu đã kêu gọi các công ty sử dụng dữ liệu tốt hơn để đảm bảo loại bỏ được những định kiến bất công.
Theo Báo Tin tức