Easy web publishing from R
Write
R Markdown
documents in RStudio.
Share them here on RPubs.
(It’s free, and couldn’t be simpler!)
Get Started
Recently Published
bus_karte1_munster.HTML
Busabfahrten je Haltestelle pro Tag in Münster
(Stand: 2.4.2026)
Data Cleaning Hospital ADE
Data Cleaning ADE
Nofiansyah Zain Yazid (2504220073)
Plot
idk
LLM Wiki
Gần đây, tác giả Karpathy đã đưa ra cách có thể tạo ra một “thư viện” có thể tự điều chỉnh, cập nhật, tư duy, và đặc biệt là không quên câu trả lời trước đó, không cần phải cập nhật tài liệu liên tục. Đây có thể được xem như một bộ não thứ hai nếu người làm có thể xây dựng được nó. Vậy làm sao có thể xây dựng được? Ở đây, tài liệu này tự tổng hợp lại nền tảng lý thuyết nói chung về xu hướng hiện tại. Mặc dù đối với dân lập trình, chủ đề này có lẽ đã không còn mới, nhưng đây vẫn là một hướng rất hữu ích để phát triển các hệ thống liên quan đến AI hiện nay.
Tài liệu này được viết dưới sự hỗ trợ và tổng hợp thông tin từ tác giả Andrej Karpathy về lý thuyết LLM Wiki, tác giả Hanyuan Cheung về lý thuyết kỹ năng LLM (LLM-skill), bao gồm quy trình Execute - Distill - Guide, cùng với sự hỗ trợ của AI như ChatGPT, Grok và NotebookLM.
Statistics for Data Science (229711) - Chapter 7: Data Dimension Reduction
This chapter explores the "Art of Information Distillation": Dimension Reduction. Students will learn how to navigate the "Curse of Dimensionality," discovering how to condense massive, complex datasets into their most essential structures. The focus is on finding the "signal" within the "noise"—transforming hundreds of variables into a few meaningful dimensions that tell the real story.
Core Topics covered:
The Curse of Dimensionality
Principal Component Analysis (PCA)
Factor Analysis
Linear Discriminant Analysis (LDA)
t-SNE
Feature Selection Methods
Evaluating Dimension Reduction
Chapter Lab Activity: Dimension Reduction Pipeline with decathlon2