THẢO LUẬN

Response cho client có thể trả theo kiểu từng dòng giống như chatgpt trả về cho user từng chữ để hiển thị lên. Bạn có thể tìm hiểu từ khoá SSE ( server send event) và spring flux

0

Chà hay thật, nhưng mà cho em hỏi thêm một xíu đó là response cũng là dạng streaming và client cũng xử lý streaming tương ứng đúng không ạ?

0

@giang.nt Theo em thì với ý thứ 3 của anh nói vấn đề replay dữ liệu khi server chết thì ngay từ ban đầu khi thiết kế microservices là Saga pattern và Outbox pattern thì đâu có lo chỗ khôi phục dữ liệu nhờ kafka anh nhỉ.

Ý em là về tính thực tiễn thôi, như em nói ngay từ ban đầu, khi triển khai microservices với Saga pattern, Outbox pattern thì việc lựa chọn Kafka để có tính bền vững là không hợp lý, ở đây ta chỉ cần một Event bus với nhiệm vụ truyền event đúng nghĩa thôi ấy

0

@trandatk Cái này còn tuỳ thuộc vào nghiệp vụ của dự án nữa.

  1. Việc Replay là hệ quả của tính bền vững chứ không phải mục đích ban đầu.

  2. Thực tế thì với lượng dữ liệu lớn như vậy nếu đã có 1 Kafka để thay e lưu thông tin rồi, thì có phải bớt một bước lưu lại ngay lúc đó, cũng tăng performance cho hệ thống.

  3. Nếu tạo thêm nơi để lưu, nếu server chết (mất điện chẳng hạn) thì em nghĩ nên xử lý lưu lại như nào để khôi phục dữ liệu.

0
khoảng 3 giờ trước

This is exactly what I was searching for. Your content always adds great value. Keep up the amazing work https://login360.in/data-science-course-in-coimbatore/

0
khoảng 5 giờ trước

bạn chưa hiểu ở đoạn nào á?

0

"Chụp 4 góc chỗ bàn/ghế ngồi thi" cái này chụp bằng Camera của laptop à ban?

0
khoảng 9 giờ trước

đọc mãi vẫn chưa hiểu lắm , nh mong fen ra nhiều bài , bài nào cuả bạn cũng chất

0
khoảng 9 giờ trước

Cảm ơn anh vì bài viết

0

I encountered an issue when rotating the algorithm weekly because some users kept an outdated version of the front-end, so their HMAC algorithm was not up to date. Therefore, the backend has to handle requests from both the new and the previous algorithm versions. This helps improve the overall user experience.

0

@giang.nt Tại chủ đề này em chưa thấy ai nói nên em hơi khó hiểu, về cơ bản người ta chỉ cần replay khi có lỗi thôi chứ đúng không anh? Vậy thì mấy cái như kiểu ELK vẫn làm tốt hơn mà, em vẫn chưa thấy ứng dụng của nó ấy

0
Avatar
đã bình luận câu trả lời trong câu hỏi
Thứ Tư, 9:27 SA

The Salesforce Certified Agentforce Specialist (AI-201) exam is known for being tough, mainly because it demands strong, real-world experience with AI agents, prompt engineering, and Data Cloud integration. But once you clear it, you instantly stand out as a skilled professional in Salesforce’s advanced AI ecosystem—giving you a competitive edge over others who don’t have this expertise. The biggest challenge lies in how quickly Agentforce features evolve and the exam’s high passing requirement of 74%.

When preparing for Salesforce Certified Agentforce Specialist (AI-201) Exam Questions, Certs2Pass is one of the best resources available. Their practice materials are carefully designed to match the real exam’s difficulty and scenario-based style, helping you build the critical thinking and hands-on understanding needed to pass on the first try.

Visit: https://www.certs2pass.com/salesforce/agentforce-specialist-questions

0

Ok thank you bạn đã chia sẻ mình có trang google site như vậy đã ổn chưa bạn nhỉ: https://sites.google.com/d/1Y4b3bizRu3LtcKJL_mbdiwXQypV3RpKP/p/1XU6XPxnlLXT8NvML5x-K1xnIHgZtIqG1/edit

0

em chào anh, em cũng đang tính ôn system design thì nên ôn bằng cách nào và ở đâu ạ, em cảm ơn anh

0
  1. Em thấy nhiều người chọn Kafka để dùng làm Event bus ở ứng dụng Microservices E-com, trong khi NATS hay RabbitMQ mới là lựa chọn đúng theo mục đích hơn. Theo anh thì là tại sao ạ?
  • Do Kafka là Data Hub, không chỉ là Message Bus và nó lưu trữ lại sự kiện => Replay dữ liệu lịch sử. Nên dễ khôi phục lại.
  1. Trong microservices E-com thì chúng ta đã có những pattern như kiểu Outbox pattern hay Saga pattern để gần như đảm bảo tính ACID của dữ liệu, thì tại sao lại cần tính bền vững của Kafka ạ?
  • Như câu trên thì Kafka cho phép đọc lại dữ liệu cũ và Replay lại. Nên tuỳ theo nghiệp vụ của dự án mà sẽ lưu lại event hay tiến trình xử lý đề phòng trường hợp lỗi cần xem lại hoặc replay lại.

=> Tính bền vững của Kafka vẫn cần để lưu lại thông tin để khôi phục

0
Thứ Ba, 8:10 SA

🫶Anh có thể note cho em các thông số cần phải test về performance vs Stress storage được không ạ, em loay hoay mà không hiểu cũng như không biết cần làm gì và lấy được giá trị expected như thế nào để viết test case nữa ạ. Em cảm ơn anh 🫶

0
Avatar
đã bình luận cho bài viết
Thứ Ba, 5:08 SA

dẫu biết IT là 1 ngành khô khang, nhưng nghiêm túc như bạn thì nên đi coi thời sự hơn

0
Avatar
đã bình luận cho bài viết
Thứ Hai, 3:42 CH

Nhờ chỉ cách copy trong phân trang giúp Vd: mỗi trang chỉ hiện 100 dòng, 10.000 dòng tương đương 100 trang Giờ muốn copy nhanh 10.000 dòng đó qua excel 0903726727 (phát)

0

Em thấy nhiều người chọn Kafka để dùng làm Event bus ở ứng dụng Microservices E-com, trong khi NATS hay RabbitMQ mới là lựa chọn đúng theo mục đích hơn. Theo anh thì là tại sao ạ?

Trong microservices E-com thì chúng ta đã có những pattern như kiểu Outbox pattern hay Saga pattern để gần như đảm bảo tính ACID của dữ liệu, thì tại sao lại cần tính bền vững của Kafka ạ?

0
Viblo
Hãy đăng ký một tài khoản Viblo để nhận được nhiều bài viết thú vị hơn.
Đăng kí