Tin song ngữ

  1. Tin tức song ngữ Anh-Việt
  2. Khoa học - Công nghệ
  3. Công nghệ thông tin
  4. Rủi ro thực sự của trí tuệ nhân tạo

Rủi ro thực sự của trí tuệ nhân tạo

Mức trung cấp

The real risks of artificial intelligence

If you believe some AI-watchers, we are racing towards the Singularity – a point at which artificial intelligence outstrips our own and machines go on to improve themselves at an exponential rate. If that happens – and it’s a big if – what will become of us?

In the last few years, several high-profile voices, from Stephen Hawking to Elon Musk and Bill Gates have warned that we should be more concerned about possible dangerous outcomes of supersmart AI. And they’ve put their money where their mouth is: Musk is among several billionaire backers of OpenAI, an orgnisation dedicated to developing AI that will benefit humanity.

But for many, such fears are overblown. As Andrew Ng at Stanford University, who is also chief scientist at Chinese internet giant Baidu, puts it: fearing a rise of killer robots is like worrying about overpopulation on Mars.

That’s not to say our increasing reliance on AI does not carry real risks, however. In fact, those risks are already here. As smart systems become involved in ever more decisions in arenas ranging from healthcare to finance to criminal justice, there is a danger that important parts of our lives are being made without sufficient scrutiny. What’s more, AIs could have knock-on effects that we have not prepared for, such as changing our relationship with doctors to the way our neighbourhoods are policed.

What exactly is AI? Very simply, it’s machines doing things that are considered to require intelligence when humans do them: understanding natural language, recognising faces in photos, driving a car, or guessing what other books we might like based on what we have previously enjoyed reading. It’s the difference between a mechanical arm on a factory production line programmed to repeat the same basic task over and over again, and an arm that learns through trial and error how to handle different tasks by itself.

How is AI helping us? The leading approach to AI right now is machine learning, in which programs are trained to pick out and respond to patterns in large amounts of data, such as identifying a face in an image or choosing a winning move in the board game Go. This technique can be applied to all sorts of problems, such as getting computers to spot patterns in medical images, for example.

Google’s artificial intelligence company DeepMind are collaborating with the UK’s National Health Service in a handful of projects, including ones in which their software is being taught to diagnose cancer and eye disease from patient scans. Others are using machine learning to catch early signs of conditions such as heart disease and Alzheimers.

Artificial intelligence is also being used to analyse vast amounts of molecular information looking for potential new drug candidates – a process that would take humans too long to be worth doing. Indeed, machine learning could soon be indispensable to healthcare.

Artificial intelligence can also help us manage highly complex systems such as global shipping networks. For example, the system at the heart of the Port Botany container terminal in Sydney manages the movement of thousands of shipping containers in and out of the port, controlling a fleet of automated, driverless straddle-carriers in a completely human-free zone. Similarly, in the mining industry, optimisation engines are increasingly being used to plan and coordinate the movement of a resource, such as iron ore, from initial transport on huge driverless mine trucks, to the freight trains that take the ore to port.

AIs are at work wherever you look, in industries from finance to transportation, monitoring the share market for suspicious trading activity or assisting with ground and air traffic control. They even help to keep spam out of your inbox. And this is just the beginning for artificial intelligence. As the technology advances, so too does the number of applications.

So what's the problem? Rather than worrying about a future AI takeover, the real risk is that we can put too much trust in the smart systems we are building. Recall that machine learning works by training software to spot patterns in data. Once trained, it is then put to work analysing fresh, unseen data. But when the computer spits out an answer, we are typically unable to see how it got there.

There are obvious problems here. A system is only as good as the data it learns from. Take a system trained to learn which patients with pneumonia had a higher risk of death, so that they might be admitted to hospital. It inadvertently classified patients with asthma as being at lower risk. This was because in normal situations, people with pneumonia and a history of asthma go straight to intensive care and therefore get the kind of treatment that significantly reduces their risk of dying. The machine learning took this to mean that asthma + pneumonia = lower risk of death.

As AIs are rolled out to assess everything from your credit rating to suitability for a job you are applying for to criminals’ chance of reoffending, the risks that they will sometimes get it wrong – without us necessarily knowing – get worse.

Since so much of the data that we feed AIs is imperfect, we should not expect perfect answers all the time. Recognising that is the first step in managing the risk. Decision-making processes built on top of AIs need to be made more open to scrutiny. Since we are building artificial intelligence in our own image, it is likely to be both as brilliant and as flawed as we are.

Source: IELTS Academic Reading


Những rủi ro thực sự của trí tuệ nhân tạo

Nếu bạn tin tưởng vào những bước tiến của trí tuệ nhân tạo thì nó lại đang dẫn chúng ta đến gần hơn với điểm kì dị, thời điểm mà ở đó trí tuệ nhân tạo vượt xa năng lực của con người và máy móc tiếp tục phát triển theo cấp số nhân. Nếu khả năng xảy ra điều đó cao thì chúng ta sẽ trở nên như thế nào?

Trong vài năm trước, nhiều tiếng nói có sức ảnh hưởng từ Stephen Hawking đến Elon Musk hay Bill Gates đã cảnh báo rằng chúng ta nên quan tâm hơn đến những hệ quả nguy hiểm có thể xảy ra của trí tuệ nhân tạo siêu thông minh . Và họ đã đánh cược lời nói của mình: Musk là một trong tỷ phú ủng hộ cho OpenAl, một tổ chức phục vụ cho sự phát triển của AI nhằm mang lại lợi ích cho con người.

Nhưng đối với nhiều người, những lo lắng này lại bị thổi phồng. Theo Andrew Ng từ Đại học Stanford và cũng là nhà khoa học chính tại trang mạng Trung Quốc khổng lồ Baidu, nói rằng: nỗi lo về sự gia tăng những robot sát thủ giống như việc lo lắng về sự gia tăng dân số trên sao Hỏa.

Tuy nhiên, điều đó không có nghĩa là sự lệ thuộc ngày càng nhiều của chúng ta vào AI lại không mang những nguy hiểm thực sự. Thực tế là những nguy hiểm này đã tồn tại từ trước. Vì các hệ thống thông minh đang ngày càng có liên quan mật thiết đến các quyết định trong những lĩnh vực khác nhau, từ y tế đến pháp lý và cả hình sự nên mối nguy cơ xuất phát từ sự xem xét không kĩ lưỡng những vấn đề quan trọng trong cuộc sống của chúng ta. Hơn nữa, AI có thể có những phản ứng dây chuyền mà chúng ta chưa sẵn sàng đối mặt, chẳng hạn như sự thay đổi mối quan hệ với bác sĩ hay cách mà các vùng lân cận của chúng ta được kiểm soát.

Vậy thực sự AI là gì? Nó đơn giản chỉ là những cỗ máy làm những việc cần phải có trí tuệ khi con người làm chúng: như hiểu được ngôn ngữ tự nhiên, nhận ra được những khuôn mặt trên bức ảnh, lái xe, hay đoán xem cuốn sách nào ta có thể ưa chuộng dựa theo những thứ ta đã lựa chọn đọc trước đó. Có sự khác biệt giữa một cánh tay cơ khí trong dây chuyền sản xuất trong nhà máy được lập trình để lặp lại những nhiệm vụ cơ bản và một cánh tay tiếp thu dựa trên sự thử nghiệm và những sai sót khi tự mình xử lý nhiều nhiệm vụ khác nhau.

Vậy Al đang hỗ trợ cho chúng ta như thế nào? Phương pháp tiếp cận AI đang dẫn đầu xu thế hiện là máy học, ở đó các chương trình đã được huấn luyện để chọn ra và phản hồi lại những mẫu trong trong lượng lớn dữ liệu, như nhận diện khuôn mặt trong bức ảnh hay chọn ra một nước đi thắng trong trò chơi cờ bàn Go. Kỹ thuật này có thể được áp dụng cho tất cả loại vấn đề như đưa vào máy tính để phát hiện các mẫu trong hình ảnh y khoa.

Công ty AI của Google - DeepMind đang hợp tác với UK's National Health Service trong nhiều dự án bao gồm: những dự án mà ở đó phần mềm của họ được lập trình để chẩn đoán ung thư hay bệnh về mắt từ việc rà quét bệnh nhân. Những dự án khác sử dụng máy học để nhận biết những triệu chứng sơ khai của bệnh tim và Alzheimers.

Trí tuệ nhân tạo cũng đang được sử dụng để phân tích hàng loạt thông tin phân tử để tìm ra phương thuốc hữu hiệu- một quá trình làm cho loài người mất nhiều thời gian để thực hiện. Vì vậy, máy học sớm có thể trở nên không thể thiếu với dịch vụ chăm sóc sức khỏe.

Trí tuệ nhân tạo cũng có thể giúp chúng ta quản lý các hệ thống thực sự khá phức tạp như mạng lưới giao hàng toàn cầu. Ví dụ, hệ thống tiếp nhận container tại trung tâm cảng Botany, ở Sydney có thể quản lý được sự di chuyển của hàng ngàn thùng giao hàng, kiểm soát đoàn tàu chuyên chở tự động không người lái trong một khu vực hòa toàn không có con người. Tương tự, trong ngành khai thác khoáng sản, sự tối ưu hóa máy móc đang được gia tăng tận dụng để lập sơ đồ và điều phối sự di chuyển của nguồn tài nguyên như quặng sắt được chuyên chở đầu tiên trên những chiếc xe tải lớn không người lái, sau đó chuyển qua tàu chở hàng để đưa sắt đến cảng.

AI đang hoạt động bất cứ khi nào chúng ta quan sát, trong những ngành công nghiệp từ tài chính đến vận tải, giám sát thị trường cổ phiếu đối với hoạt động giao dịch đáng ngờ hoặc hỗ trợ kiểm soát giao thông đường bộ và đường hàng không. Chúng thậm chí có thể hữu ích trong việc ngăn chặn tin rác trong hộp thư của bạn. Và đây chỉ mới là giai đoạn khởi đầu cho AI. Khi mà công nghệ ngày càng phát triển, số lượng ứng dụng cũng sẽ tăng lên.

Vậy, vấn đề ở đây là gì? Mối nguy cơ thực sự là chúng ta có thể đang đặt quá nhiều sự tin tưởng vào những hệ thống thông minh mà chúng ta đang được xây dựng thay vì mối lo lắng về sự chiếm đoạt của AI trong tương lai. Hãy nhớ rằng máy học hoạt động bởi phần mềm huấn luyện để phát hiện những mẫu trong dữ liệu. Một khi đã được huấn luyện, thì sau đó chúng sẽ được hoạt động để phân tích dữ liệu ẩn và mới. Nhưng khi máy tính cho ra một câu trả lời, chúng ta lại không thể thấy được làm sao chúng có được nó.

Có những vấn đề rõ ràng ở đây. Một hệ thống chỉ hiệu quả như dữ liệu chúng thu được. Hãy chọn lấy một hệ thống đã được huấn luyện để tìm hiểu những bệnh nhân nào mắc bệnh viêm phổi có nguy cơ tử vong cao hơn để họ thể được đưa vào bệnh viện. Nó phân loại ngẫu nhiên bệnh nhân bị suyễn ở mức độ rủi ro thấp hơn. Điều này xảy ra là vì trong những trường hợp thông thường, người bị viêm phổi và có tiền sử bị suyễn sẽ được chăm sóc đặc biệt và do đó có được sự điều trị để làm giảm nguy cơ tử vong đáng kể. Máy học đã thiết lập rằng điều này có nghĩa là suyễn+ viêm phổi= nguy cơ tử vong thấp hơn.

Vì AI được trao đổi để đánh giá mọi thứ từ xếp hạng tín nhiệm của bạn đến tính ổn định của một công việc mà bạn đang nộp đơn hay khả năng tái phạm của tội phạm, những mối nguy cơ từ việc đôi khi chúng sẽ mắc những sai lầm khi không có chúng ta, ắt hẳn sẽ dẫn đến những điều tồi tệ hơn.

Vì quá nhiều dữ liệu mà chúng ta cung cấp cho AI là không hoàn hảo, nên chúng ta không nên lúc nào cũng kì vọng vào những câu trả lời chính xác. Thừa nhận chính là bước đầu tiên trong việc quản lý rủi ro. Những quá trình đưa ra quyết định được xây dựng dựa trên nền tảng AI cần được thiết lập rộng mở hơn cho việc xem xét. Bởi vì chúng ta đang xây dựng trí tuệ nhân tạo trong trí tưởng tượng của mình, nên việc thành công hay thất bại đều có thể xảy ra.


Dịch bởi: votanhai123

bài viết đặc sắc trong tháng 08/2020

Tại sao thầy Ce Phan lại tạo kênh Youtube bằng tiếng Anh?

Thầy Ce Phan được biết đến như là một giáo viên dạy tiếng Anh tại thành phố Hồ Chí Minh trước khi chuyển đến sống tại Nhật Bản vào năm 2018.

Có thể bạn quan tâm

Tin cùng chuyên mục