Có lẽ đã đến lúc lập trình viên nên học AI/ML

Mình đã suy nghĩ về việc có nên học thêm AI/ML trong hơn nửa năm gần đây. Đến thời điểm này mình nghĩ là nên. Các bạn nghĩ sao về việc này?

Mình bắt đầu học từ khoá này, yêu cầu học đơn giản chỉ cần biết Python.

4 Likes

Câu hỏi là “học để làm chi” sếp ơi

AI/ML thì cũng chỉ là một mảng trong ngành công nghệ thôi, giờ nó đang phát triển mạnh, nhưng nếu chỉ có mình nó không thôi thì không đủ để công công nghệ phát triển

AI bây giờ cũng không quá khó như xưa, nên việc học cho biết là điều nên làm :ok_hand: chưa kể đến việc AI đang hot như hiện tại nên tài liệu cũng rất nhiều và thân thiện hơn.

và theo mình thì nên học cơ bản, chỉ cần có góc nhìn bao quát, không cần đi sâu vì 2 lý do:

  1. việc hiểu cơ bản là đủ để không bị lừa bởi các app AI tràn lan hiện nay. nếu hiểu được nguyên lý cơ bản đằng sau các LLM, Image Gen thì khi đó sẽ hiểu các app AI hơn -> biết lựa chọn nào là tốt hơn
  2. hiểu cơ bản để nếu sau này có cần thì học sâu thêm từ từ, coi như đây là bước đệm cho tương lai. vì dù sao để học đầy đủ ML/DL không phải là quá trình dễ dàng.
3 Likes

Học để làm. Nghĩ thử ngày xưa chỉ có desktop app sau đó có web rồi mobile. Không làm web thì cũng làm mobile chứ không lẽ làm desktop app hoài :slight_smile:

Mình đi theo hướng từ linux/embedded/desktop -> web và bỏ qua mobile/crypto nhưng mình thấy AI/ML là cần phải biết.

2 Likes

Có 2 khía cạnh là:

  • Học để sử dụng sản phẩm của AI/ML.
  • Học để phát triển sản phẩm đến AI/ML.

Học để sử dụng thì tất nhiên tốt.
Học để làm sản phẩm thì cũng tốt nhưng tùy từng định hướng vì có những hướng đi không cần AI/ML.

Mình lại không nghĩ như vậy, học để sử dụng sản phẩm AI/ML thì không cần thiết lắm. Sản phẩm bây giờ làm ra dễ dùng (ít nhất là đối với mình).

Cái việc phát triển sản phẩm sử dụng AI/ML thì mình lại thấy nó rất thực tế. Mình mới bắt đầu học thôi nhưng cái mình cảm thấy là việc phát triển AI/ML khác, nhưng không quá khó cho ae làm phần mềm.

Với phần mềm mình sẽ có framework(ví dụ spring boot hoặc NestJS) and library (time, os, math…)

Với AI/ML thì mình sẽ dùng framework(PyTorch) and model (model sẵn có nhiều lắm)

Mình nghĩ nếu khía cạnh quan tâm trong lĩnh vực ML là code và deploy sản phẩm thì học không là vấn đề khó. Đương nhiên học kiến thức về ML models là điều tối cần thiết, nhưng học các công cụ hỗ trợ cho model (như web, server, cloud, data crawling,…) thì gần như là có library có sẵn hết rồi, nó cũng không khó và nhiều như Spring hay NestJS. Đối với một Data Scientist, bấy nhiêu kiến thức phần code là đủ để tham gia vào việc tạo sản phẩm.

Còn lĩnh vực khó đối với ML, theo cá nhân mình nghĩ, là phần Toán học trong ML models. Để có kiến thức Toán học vững thì cần phải học bài bản từ trong trường thì may ra mới có thể làm được, chủ yếu là công việc nghiên cứu và phát triển một model mới.

4 Likes

Sản phẩm đầu tay, mọi người có thể thử :wink:

Chỉ cách đây 10 năm, chuyện này là không tưởng nhưng giờ lại là điểu có thể chỉ với một ít dòng code.

https://huggingface.co/spaces/letrandat/fastai_pet_classifier

Cách dùng, upload một cái hình rồi bấm submit để model đoán chó hay mèo.

1 Like

Hello everyone

Artificial Intelligence or AI is currently a worldwide hype. Perhaps the latest craze in the IT world. I can still remember that in 1990, object-oriented programming (OOP) was the ultimate skill that every IT (wo)man had to master. Today, we are similarly threatened by AI: if we cannot spell the word AI fluently, we are lost in nirvana. LOL. Let me analyze the AI ​​hype.

The human brain is an unmatched potential natural intelligence that will never be fully exploited by humans. Autistic children have amazing memory and recall that no quantum computer in the world could compete with. Mother Nature is the unmatched inventor and creator of “sub-pico technology”. The tiny brain of a flea or fly can perform maneuvers that no known “nanorobot” or “nanodrone” could get right. So what really is AI based on ChatGPT or OpenAI? Let’s be open and honest: Without a huge data center as you see here

https://www.youtube.com/watch?v=vZMjvpWFQvk

ChatGPT or OpenAI is a dead horse. The data center is the brain of the AI, where human knowledge accumulates, and the only job of the AI ​​is to connect the various pieces of knowledge and to result in a “new conclusion” (which is also known to humans). Example: H2 (Hydrogen) mixed with O (Oxygen) gives water. These findings about H2, O and water are well known. If you ask ChatGPT or OpenAI what comes out when H2 and O are mixed in a test tube, the answer is surely water. Suppose the developer incorrectly enters in the Datacenter Repository that H2 mixed with O equals “stone”, then ChatGPT or OpenAI will return H2+O = stone as the answer.

Human intelligence is nothing but the reflection of known events, objects or experiences to gather new experiences and link them to all known knowledge to create new knowledge. For example, a barking sound makes us think it is a dog, braking wheels make us assume it is a braking car. In computer science, such reflections are called pattern recognition. The patterns are the known experiences (barking dog, braking car) stored in our memory. When we hear or see a strange, unfamiliar sound or object, we are either confused or stunned and then try to link it to our knowledge to “explain” it. For AI, the data center is the brain, which stores all known patterns (that humans experience and know). As with humans, unknown patterns will cause confusion for AI and leave it helpless. AI pattern recognition is based on numerous algorithms developed by humans, such as Alpha-Beta Search, Map-Reduce algorithm, etc. For example, you can ask ChatGPT to write a small app in Java or C++ and voilà: Click HERE to see the JAVA codes. The generated codes are based on known parts found on the internet and are clean and “cheap”. So why does your employer need you if ChatGPT can create the codes better than some of you?

Human civilization evolves with and through pattern recognition (ugly man, pretty girl, good taste, bad smell, etc.) and creates new patterns from the known patterns. For example, the “multiplication” pattern is the “addition” pattern multiplied by n: 3 x 5 = 15 or 5+5+5 or 3+3+3+3+3. And this x-fold addition algorithm was developed by humans. If humans don’t “teach” AI this algorithm, AI cannot perform multiplication. Since computers (e.g. NVIDIA) in huge data centers are extremely fast and tuned only for pattern recognition, AI seems to be fast and alive. But that’s not true. Our brain can render a alive, complex pattern much faster than such a huge data center. However, AI is based on the experiences and knowledge of numerous people, while we as individuals are alone, and that is our disadvantage compared to AI. As mentioned above, a flea or a fly can outperform any man-made nanotechnological robot or drone. Why? Because the insect reacts to the actual situation, which can be very volatile and dynamic. AI relies on data centers that “safeguard” knowledge, and these are static. In a volatile and dynamic situation, AI cannot react in the same way as humans. For example, we know that Google stores huge amounts of data for its search engine, so why shouldn’t we use Google Search for our pattern recognition purposes? Its huge amounts of data are our “static” knowledge, and Google Search allows us to access knowledge that we as individuals have neither experienced nor possessed. I highly doubt ChatGPT or OpenAI are running Google Search to search for an unknown subject/object. And that makes us the ruler of AI.

If we know how to use Google search for our extended (static) knowledge, we don’t need to learn AI-ML.

83% thành viên diễn đàn không hỏi bài tập, còn bạn thì sao?