Tin tặc đưa các mô hình AI từ Google, OpenAI, nhiều hơn nữa vào thử nghiệm tại Defcon 31


(Tín dụng: grandeduc / Getty Images)

Một số công cụ AI hiện đã có sẵn công khai, từ Google Bard và Bing AI cho đến công cụ đã làm nên điều này: ChatGPT của OpenAI. Nhưng những mô hình trí tuệ nhân tạo này thực sự có thể làm gì? Chúng ta sẽ sớm tìm ra câu trả lời khi các tin tặc đưa những tên tuổi lớn nhất trong lĩnh vực AI vào thử nghiệm tại Defcon 31.

Hội nghị tin tặc đang kêu gọi(Mở ra trong một cửa sổ mới) những người tham dự cuộc họp mặt năm nay để “tìm lỗi trong các mô hình ngôn ngữ lớn được xây dựng bởi Anthropic, Google, Hugging Face, Nvidia, OpenAI và Stability.”

defcon 31(Mở ra trong một cửa sổ mới) được lên kế hoạch vào ngày 10-13 tháng 8 tại Las Vegas. Nỗ lực AI đang được tổ chức bởi AI Village, hợp tác với Humane Intelligence(Mở ra trong một cửa sổ mới)SeedAI(Mở ra trong một cửa sổ mới)và Cơ sở dữ liệu về lỗ hổng AI(Mở ra trong một cửa sổ mới). Văn phòng Khoa học, Công nghệ và Chính sách của Nhà Trắng(Mở ra trong một cửa sổ mới) cũng có liên quan, cũng như Ban Giám đốc Kỹ thuật và Khoa học Máy tính và Thông tin của Quỹ Khoa học Quốc gia, và Cuộc họp kín về AI của Quốc hội.

“Đây là lần đầu tiên có người cố gắng hơn vài trăm chuyên gia để đánh giá các mô hình này,” theo ban tổ chức Defcon. “Càng nhiều người biết cách làm việc tốt nhất với các mô hình này và những hạn chế của chúng thì càng tốt. Đây cũng là cơ hội để các cộng đồng mới học các kỹ năng về AI bằng cách khám phá những điều kỳ quặc và hạn chế của nó.”

Logo DEFCON

Làng AI sẽ giám sát sự kiện hack AI tại Defcon. (Tín dụng: Defcon)

Ban tổ chức Làng AI sẽ cung cấp máy tính xách tay, quyền truy cập vào từng mô hình và giải thưởng cho người có thể kiểm tra kỹ từng mô hình nhất. Ban tổ chức cho biết: “Chúng tôi sẽ cung cấp hệ thống tính điểm theo phong cách chụp cờ (CTF) để thúc đẩy thử nghiệm nhiều tác hại”. “Cá nhân đạt số điểm cao nhất sẽ giành được GPU Nvidia cao cấp.”

Những người tham gia sẽ bao gồm các nhà nghiên cứu chuyên gia cũng như “sinh viên từ các tổ chức và cộng đồng bị bỏ qua.” Tất cả đều phải tuân theo lời thề Hippocrates của hacker.

Bằng cách hợp tác với một tổ chức phi chính phủ, Nhà Trắng cho biết họ muốn các chuyên gia độc lập, không thiên vị xác định xem các mô hình có đáp ứng các tiêu chí trong Dự luật về Quyền AI của mình hay không(Mở ra trong một cửa sổ mới). Văn phòng Khoa học, Công nghệ và Chính sách đã viết tuyên bố về quyền và đang giám sát sáng kiến ​​Defcon.

Nhà Trắng cho biết: “Cuộc tập trận độc lập này sẽ cung cấp thông tin quan trọng cho các nhà nghiên cứu và công chúng về tác động của các mô hình này, đồng thời sẽ cho phép các công ty và nhà phát triển AI thực hiện các bước để khắc phục các sự cố được tìm thấy trong các mô hình đó”.(Mở ra trong một cửa sổ mới).

Dự luật về quyền xác định năm nguyên tắc mà chính quyền nói “nên hướng dẫn thiết kế, sử dụng và triển khai các hệ thống tự động để bảo vệ công chúng Mỹ trong thời đại trí tuệ nhân tạo.” Nó cho rằng tất cả mọi người đều có các quyền sau khi nói đến AI:

Được giới thiệu bởi các biên tập viên của chúng tôi

‘Bố già của AI’ khiến Google lên tiếng lo ngại về trí tuệ nhân tạo

Cách mạng hay Hủy hoại? Điều mà Musk, Gates và 5 nhà công nghệ khác lo sợ nhất về AI

Đề xuất luật Hoa Kỳ cấm AI phóng vũ khí hạt nhân

  1. Bạn nên được bảo vệ khỏi các hệ thống không an toàn hoặc không hiệu quả.

  2. Bạn không nên đối mặt với sự phân biệt đối xử bởi các thuật toán và các hệ thống nên được sử dụng và thiết kế một cách công bằng.

  3. Bạn nên được bảo vệ khỏi các hành vi lạm dụng dữ liệu thông qua các biện pháp bảo vệ tích hợp và bạn nên có quyền kiểm soát cách dữ liệu về bạn được sử dụng.

  4. Bạn nên biết rằng một hệ thống tự động đang được sử dụng và hiểu cách thức cũng như lý do hệ thống đó góp phần tạo ra những kết quả tác động đến bạn.

  5. Bạn sẽ có thể chọn không tham gia, khi thích hợp và có quyền tiếp cận với một người có thể nhanh chóng xem xét và khắc phục các vấn đề mà bạn gặp phải.

Sự kiện Defcon nhằm đẩy nhanh việc phát hiện ra các vấn đề vi phạm các nguyên tắc này. Thông thường, các công ty như Google và OpenAI sẽ thử nghiệm công nghệ của riêng họ sau cánh cửa đóng kín hoặc thông qua các chương trình tiền thưởng lỗi của riêng họ, điều này tạo ra các vấn đề mà “các chuyên gia bảo mật và công chúng phải giải quyết”, các nhà tổ chức Defcon cho biết.

“Chúng tôi yêu thích sự bùng nổ của tính sáng tạo mà các mô hình ngôn ngữ lớn tổng quát mới (LLM) cho phép,” Defcon nói. “Tuy nhiên, chúng tôi mới chỉ bắt đầu hiểu được những rủi ro tiềm ẩn và mới nổi đến từ việc tự động hóa các công nghệ mới này trên quy mô lớn.”

VP Kamala Harris trên bục với Biden phía sau cô ấy.

Phó Tổng thống Kamala Harris và Tổng thống Biden (Tín dụng: Alex Wong / Staff / Getty Images)

Nhà Trắng hôm nay cũng thông báo rằng Quỹ Khoa học Quốc gia đã phân bổ 140 triệu USD để thành lập 7 Viện Nghiên cứu AI Quốc gia mới, trong khi Văn phòng Quản lý và Ngân sách sẽ công bố dự thảo chính sách sử dụng hệ thống AI của chính phủ để lấy ý kiến ​​công chúng. mùa hè.

Phó chủ tịch Kamala Harris cũng đã gặp các CEO của Alphabet, Anthropic, Microsoft và OpenAI để thảo luận về việc phát triển các hệ thống AI có trách nhiệm, đáng tin cậy và có đạo đức.

Giống như những gì bạn đang đọc?

Đăng ký cho an ninhxem bản tin về các câu chuyện bảo mật và quyền riêng tư hàng đầu của chúng tôi được gửi ngay đến hộp thư đến của bạn.



Bản tin này có thể chứa các liên kết quảng cáo, giao dịch hoặc liên kết. Đăng ký nhận bản tin cho biết bạn đồng ý với Điều khoản sử dụng và Chính sách quyền riêng tư của chúng tôi. Bạn có thể hủy đăng ký nhận bản tin bất cứ lúc nào.


Cảm ơn bạn đã đăng ký!

Đăng ký của bạn đã được xác nhận. Theo dõi hộp thư đến của bạn!

Đăng ký nhận các bản tin khác

Đánh giá bài post này
No Comments

Post A Comment

Solverwp- WordPress Theme and Plugin