Root NationBài viếtphân tíchSáu điều răn của trí tuệ nhân tạo

Sáu điều răn của trí tuệ nhân tạo

-

Những năm tiếp theo sẽ được đánh dấu bằng sự phát triển nhanh chóng của công nghệ trí tuệ nhân tạo. Có lẽ cần phải giới thiệu các khuôn khổ được xác định rõ ràng để tạo và sử dụng AI? 6 tháng kinh nghiệm có đủ để điều chỉnh một công nghệ thậm chí còn chưa ra khỏi phòng thí nghiệm không? Câu hỏi này ngày càng đến từ miệng của các chuyên gia và nhà báo khi nói đến trí tuệ nhân tạo. Những tiếng nói và lời kêu gọi thực hiện các biện pháp điều chỉnh trí tuệ nhân tạo - cả ở cấp độ người dùng và cấp độ phát triển dự án - ngày càng được lắng nghe thường xuyên hơn. Lịch sử của những lời kêu gọi như vậy đã bắt đầu từ khá lâu.

Sự hiện diện phổ biến của trí tuệ nhân tạo trong không gian kỹ thuật số và trên hết là các mô hình có khả năng tạo ra nội dung không khác với nội dung do con người tạo ra, gợi lên những cảm xúc rất khác nhau. Một mặt, chúng tôi có một nhóm những người đam mê nhìn thấy tương lai của AI và mặc dù khả năng của nó tương đối hạn chế (vì AI không suy nghĩ và thường chỉ lấy thông tin từ Internet), không ngại giao cho nó nhiều nhiệm vụ . Ở phía bên kia của rào cản là một nhóm bày tỏ sự hoài nghi và lo ngại về các xu hướng phát triển trí tuệ nhân tạo hiện nay.

định đề AI

Cầu nối giữa hai nhóm là các nhà nghiên cứu trí tuệ nhân tạo, một mặt, họ trích dẫn rất nhiều ví dụ về việc trí tuệ nhân tạo đã ảnh hưởng tích cực đến thực tế xung quanh như thế nào. Đồng thời, họ hiểu rằng còn quá sớm để nghỉ ngơi trên vòng nguyệt quế của mình và bước nhảy vọt về công nghệ mang lại nhiều thách thức và trách nhiệm to lớn. Một ví dụ rõ ràng về thái độ này là một nhóm các nhà nghiên cứu máy học và trí tuệ nhân tạo quốc tế do Tiến sĩ Ozlem Garibay từ Đại học Trung tâm Florida đứng đầu. Ấn phẩm dài 47 trang, được viết bởi 26 nhà khoa học từ khắp nơi trên thế giới, xác định và mô tả sáu thách thức mà các tổ chức nghiên cứu, công ty và tập đoàn phải giải quyết để đảm bảo an toàn cho các mô hình của họ (và phần mềm sử dụng chúng).

Vâng, đây là một công trình khoa học nghiêm túc với những giải thích quan trọng để hiểu được tương lai của trí tuệ nhân tạo. Ai quan tâm, có thể độc lập đọc báo cáo khoa học này và rút ra kết luận của riêng bạn. Nói một cách đơn giản, các nhà khoa học đã xác định được 6 điều răn của trí tuệ nhân tạo. Tất cả các phát triển và hành động của AI phải tuân theo chúng để an toàn cho con người và thế giới.

định đề AI

Trong bài báo của mình, được viết chính xác trên cơ sở công trình khoa học này, tôi sẽ cố gắng xây dựng các định đề chính, các quy luật theo đó trí tuệ nhân tạo nên tồn tại và phát triển. Vâng, đây là cách giải thích gần như miễn phí của tôi về kết luận của các nhà khoa học liên quan đến sự phát triển của trí tuệ nhân tạo và nỗ lực trình bày chúng, có thể nói, một phiên bản Kinh thánh. Nhưng đây là cách tôi muốn giới thiệu với bạn công trình khoa học này của các nhà khoa học đáng kính.

Cũng thú vị: Xây dựng AI: Ai đang dẫn đầu cuộc đua?

Luật đầu tiên: Hạnh phúc của con người

Định đề đầu tiên của các nhà nghiên cứu là tập trung công việc của trí tuệ nhân tạo vào hạnh phúc của con người. Do thiếu "giá trị con người, ý thức chung và đạo đức", trí tuệ nhân tạo có thể hành động theo cách dẫn đến sự suy giảm đáng kể sức khỏe của con người. Các vấn đề có thể là kết quả của khả năng siêu phàm của AI (ví dụ: AI dễ dàng đánh bại con người như thế nào - và không chỉ trong cờ vua), mà còn do AI không tự suy nghĩ và do đó không thể "lọc" những thành kiến ​​hoặc những sai lầm rõ ràng.

định đề AI

- Quảng cáo -

Các nhà nghiên cứu lưu ý rằng việc tin tưởng quá mức vào các công nghệ trí tuệ nhân tạo có thể ảnh hưởng tiêu cực đến sức khỏe của con người. Một xã hội ít hiểu biết về cách thức hoạt động thực sự của các thuật toán trí tuệ nhân tạo có xu hướng tin tưởng quá mức vào nó, hoặc ngược lại, có thái độ tiêu cực đối với nội dung do một mô hình nào đó tạo ra, đặc biệt là chatbot. Xem xét những yếu tố này và các yếu tố khác, nhóm của Garibay kêu gọi đặt sức khỏe con người làm trung tâm của các tương tác giữa con người và AI trong tương lai.

Đọc thêm: ChatGPT: hướng dẫn sử dụng đơn giản

Luật thứ hai: Trách nhiệm

Trách nhiệm giải trình là một thuật ngữ liên tục xuất hiện trong thế giới AI trong bối cảnh chúng ta sử dụng máy học để làm gì cũng như cách thức chính xác các mô hình và thuật toán AI được phát triển và đào tạo. Nhóm quốc tế nhấn mạnh rằng việc thiết kế, phát triển và triển khai trí tuệ nhân tạo chỉ nên được thực hiện với mục đích tốt.

định đề AI

Theo ý kiến ​​của họ, trách nhiệm nên được xem xét không chỉ trong lĩnh vực kỹ thuật mà còn trong bối cảnh pháp lý và đạo đức. Công nghệ phải được xem xét không chỉ từ quan điểm hiệu quả của nó, mà còn trong bối cảnh sử dụng nó.

"Với sự ra đời của các kỹ thuật học máy tiên tiến, việc hiểu cách thức đưa ra quyết định và ai chịu trách nhiệm về quyết định đó ngày càng trở nên quan trọng.” - các nhà nghiên cứu viết.

Luật thứ ba: Bảo mật

Quyền riêng tư là một chủ đề xuất hiện trong mọi cuộc thảo luận về công nghệ. Đặc biệt là khi mọi thứ được thảo luận trên mạng xã hội. Tuy nhiên, điều này cực kỳ quan trọng đối với trí tuệ nhân tạo vì nó không tồn tại nếu không có cơ sở dữ liệu. Và cơ sở dữ liệu là gì?

Các nhà khoa học mô tả chúng là "sự trừu tượng hóa các khối xây dựng cơ bản tạo nên cách chúng ta nhìn thế giới." Các khối này thường là các giá trị trần tục: màu sắc, hình dạng, kết cấu, khoảng cách, thời gian. Trong khi AI hẹp tập trung vào một mục tiêu duy nhất, chẳng hạn như mức độ màn trập mở ở cường độ ánh sáng nhất định, sử dụng dữ liệu mục tiêu có sẵn công khai, AI trong các ứng dụng rộng hơn (ví dụ: ở đây, các mô hình chuyển văn bản thành hình ảnh như Midjourney, hoặc các mô hình ngôn ngữ như ChatGPT ) có thể sử dụng dữ liệu về và do mọi người tạo ra. Các bài viết trên báo chí, sách, minh họa và ảnh đăng trên Internet cũng nên được đề cập. Các thuật toán trí tuệ nhân tạo có quyền truy cập vào mọi thứ, bởi vì chính chúng tôi đã trao nó cho họ. Nếu không, anh ta sẽ không biết gì và sẽ không đưa ra câu trả lời cho bất kỳ câu hỏi nào.

định đề AI

Dữ liệu người dùng về cơ bản ảnh hưởng đến cả những người mà dữ liệu này được thu thập và những người trong hệ thống nơi các thuật toán trí tuệ nhân tạo sẽ được triển khai.

Do đó, thách thức thứ ba liên quan đến sự hiểu biết rộng về quyền riêng tư và việc cung cấp các quyền như quyền được ở một mình, quyền hạn chế tiếp cận với chính mình, quyền bí mật về cuộc sống cá nhân hoặc công việc kinh doanh của một người, quyền kiểm soát cá nhân. thông tin, tức là quyền được bảo vệ nhân cách, cá tính và nhân phẩm của mình. Tất cả những điều này phải được ghi vào các thuật toán, nếu không quyền riêng tư sẽ không tồn tại và các thuật toán AI có thể được sử dụng trong các âm mưu lừa đảo cũng như tội phạm hình sự.

Đọc thêm: 7 cách thú vị nhất để sử dụng ChatGPT

Luật thứ tư: Cấu trúc dự án

Trí tuệ nhân tạo có thể cực kỳ đơn giản và chỉ dành cho một mục đích, nhưng trong trường hợp các mô hình lớn hơn với tính chất rộng và đa tác vụ, vấn đề không chỉ là quyền riêng tư dữ liệu mà còn là cấu trúc thiết kế.

Ví dụ, GPT-4, mô hình trí tuệ nhân tạo mới nhất của OpenAI, mặc dù có quy mô và tác động đến thế giới AI (và hơn thế nữa), nhưng không có tài liệu công khai đầy đủ. Đó là, chúng tôi không hiểu mục tiêu cuối cùng của các nhà phát triển là gì, họ muốn đạt được kết quả cuối cùng là gì. Do đó, chúng tôi không thể đánh giá đầy đủ các rủi ro liên quan đến việc sử dụng mô hình AI này. Mặt khác, GPT-3 được đào tạo dựa trên dữ liệu từ diễn đàn 4chan, là một mô hình mà bạn chắc chắn không muốn tương tác. Diễn đàn 4chan là một trong những hiện tượng thú vị nhất trên Internet. Đây là một ví dụ về tình trạng vô chính phủ tuyệt đối, hoàn toàn, trong thực tế không bị giới hạn bởi bất kỳ khuôn khổ nào. Đây là nơi tạo ra các nhóm hack như Anonymous hay LulzSec. Nó là nguồn gốc của nhiều meme phổ biến nhất, là nơi để thảo luận về các chủ đề gây tranh cãi và đăng tải những ý kiến ​​còn gây tranh cãi hơn nữa. Mặc dù bảng hình ảnh bằng tiếng Anh lưu ý rằng "cho đến nay nó vẫn hợp pháp", nhưng điều này hơi đáng nghi ngờ vì 4chan thỉnh thoảng tương tác với các phương tiện truyền thông, bao gồm nội dung phân biệt chủng tộc, Quốc xã và phân biệt giới tính.

định đề AI

- Quảng cáo -

Nhóm của Giáo sư Garibay muốn mỗi mô hình trí tuệ nhân tạo hoạt động trong một khuôn khổ được xác định rõ ràng. Không chỉ vì sức khỏe của người mà AI tương tác, mà còn vì khả năng đánh giá các rủi ro liên quan đến việc sử dụng mô hình. Cấu trúc của bất kỳ dự án nào nên bao gồm sự tôn trọng nhu cầu, giá trị và mong muốn của các nhóm văn hóa khác nhau và các bên liên quan. Quá trình tạo, đào tạo và tinh chỉnh AI nên tập trung vào phúc lợi của con người và sản phẩm cuối cùng – mô hình AI – nên tập trung vào việc nâng cao và cải thiện năng suất của chính cộng đồng loài người. Các mô hình không thể xác định rủi ro nên có quyền truy cập hạn chế hoặc được kiểm soát. Họ không nên là mối đe dọa cho nhân loại, mà ngược lại, góp phần vào sự phát triển của con người và xã hội nói chung.

Đọc thêm: Twitter trong tay Elon Musk - mối đe dọa hay "cải tiến"?

Luật thứ năm: Quản trị và giám sát độc lập

Các thuật toán trí tuệ nhân tạo đã thay đổi thế giới theo đúng nghĩa đen chỉ trong một năm. Bard của Google và Bing ra mắt lần đầu vào Microsoft đã ảnh hưởng đáng kể đến cổ phiếu của cả hai gã khổng lồ trên sàn chứng khoán. Nhân tiện, họ đã góp phần vào sự tăng trưởng cổ phiếu của các công ty này ngay cả trong bối cảnh cổ phiếu Apple. ChatGPT đã bắt đầu được học sinh tích cực sử dụng, họ giao tiếp với nó, kiểm tra nó và đặt câu hỏi. Điều quan trọng nhất là cháu có khả năng tự học, tự sửa sai. Trí tuệ nhân tạo thậm chí đang bắt đầu hoạt động trong chính phủ của một số quốc gia. Đây là trường hợp của Thủ tướng Romania, Nicolae Chuca thuê ảo một trợ lý sẽ thông báo cho anh ta về nhu cầu của xã hội. Tức là trí tuệ nhân tạo ngày càng đóng vai trò quan trọng trong cuộc sống của chúng ta.

AI

Do sự phụ thuộc lẫn nhau ngày càng tăng giữa trí tuệ nhân tạo, con người và môi trường, các nhà khoa học cho rằng cần phải thành lập các cơ quan quản lý và giám sát độc lập sự phát triển của nó. Những cơ quan này sẽ kiểm soát toàn bộ vòng đời của trí tuệ nhân tạo: từ ý tưởng đến phát triển và triển khai. Các cơ quan chức năng sẽ xác định đúng các mô hình AI khác nhau và xem xét các trường hợp liên quan đến trí tuệ nhân tạo và các chủ đề của đời sống xã hội. Đó là, trí tuệ nhân tạo có thể trở thành chủ đề của các phiên tòa, cũng như các vụ kiện. Mặc dù, tất nhiên, không phải cá nhân anh ấy, mà là các nhà phát triển của anh ấy.

Đọc thêm: Tất cả về Neuralink: Sự khởi đầu của sự điên rồ của Cyberpunk?

Định luật thứ sáu: Sự tương tác giữa con người và trí tuệ nhân tạo

Trong các chương trình trí tuệ nhân tạo, mọi người đều có thể tìm thấy thứ gì đó cho mình: tạo văn bản, phát hiện nội dung trong hình ảnh, trả lời câu hỏi, tạo hình ảnh, nhận dạng người trong ảnh, phân tích dữ liệu. Những mục đích sử dụng đa dạng này không chỉ là mối quan tâm của những người đang cố gắng điều chỉnh trí tuệ nhân tạo theo các tiêu chuẩn pháp lý và đạo đức. Nhiều người lo sợ bị thay thế khỏi thị trường lao động bởi các mô hình AI. Bởi vì các thuật toán trí tuệ nhân tạo sẽ có thể làm điều tương tự nhanh hơn, rẻ hơn và thậm chí có thể tốt hơn con người. Đồng thời, có những người dựa vào AI trong công việc của họ, tức là trí tuệ nhân tạo đã là một trợ lý không thể thiếu đối với họ ngày nay.

AI

Nhưng từ những nghiên cứu mà các nhà khoa học tham khảo, rõ ràng việc thay thế con người bằng lao động nhân tạo giá rẻ vẫn còn khá xa vời. Mặc dù vậy, họ đã nhấn mạnh vào sự cần thiết phải thiết lập một hệ thống phân cấp tương tác chặt chẽ giữa con người và trí tuệ nhân tạo. Theo họ, nên đặt con người lên trên trí tuệ nhân tạo. Trí tuệ nhân tạo phải được tạo ra với sự tôn trọng khả năng nhận thức của một người, có tính đến cảm xúc, tương tác xã hội, ý tưởng, lập kế hoạch và tương tác với các đối tượng của anh ta. Tức là trong mọi tình huống, chính con người phải đứng trên trí tuệ nhân tạo, kiểm soát hành vi và nội dung do mô hình tạo ra và chịu trách nhiệm về nó. Nói một cách đơn giản, ngay cả AI tiên tiến nhất cũng phải tuân theo một người và không vượt quá những gì được phép, để không gây hại cho người tạo ra nó.

Đọc thêm: Cách Ukraine sử dụng và điều chỉnh Starlink trong thời chiến

Visnovki

Vâng, ai đó sẽ nói rằng các nhà khoa học đã không chỉ ra bất cứ điều gì quan trọng và mới trong báo cáo của họ. Mọi người đã nói về điều này trong một thời gian dài. Nhưng bây giờ cần phải đặt AI vào một số khuôn khổ của pháp luật. Tiếp cận GPT-4 giống như mù quáng cầm lấy con dao. Họ ẩn thông tin quan trọng từ chúng tôi. Tất cả những phát triển về trí tuệ nhân tạo, và đặc biệt là dự án ChatGPT từ Open AI, thường khiến tôi nhớ đến việc nuôi dạy một đứa trẻ nhỏ. Đôi khi có vẻ như đây là một đứa trẻ có nguồn gốc ngoài hành tinh. Ừ thì là người ngoài hành tinh, nhưng nó vẫn là một đứa trẻ ham học, hay mắc sai lầm, đôi khi cư xử không đúng mực, hay cáu gắt, cãi lời cha mẹ. Mặc dù nó sinh trưởng và phát triển rất nhanh.

AI

Nhân loại có thể không theo kịp sự phát triển của mình và mọi thứ có thể vượt khỏi tầm kiểm soát. Do đó, nhân loại cần phải hiểu tại sao chúng ta đang phát triển tất cả những điều này, để biết mục tiêu cuối cùng, để trở thành "cha mẹ có trách nhiệm", bởi vì nếu không thì "đứa trẻ" có thể tiêu diệt "cha mẹ" của nó một cách đơn giản.

Đọc thêm: 

Yuri Svitlyk
Yuri Svitlyk
Con trai của dãy núi Carpathian, thiên tài toán học không được công nhận, "luật sư"Microsoft, người vị tha thực tế, trái-phải
- Quảng cáo -
Đăng ký
Thông báo về
khách sạn

0 Nhận xét
Bài đánh giá được nhúng
Xem tất cả các bình luận