Fine-Tuning GPT-OSS-20B on Google Colab Using Unsloth and LoRA

1. Introduction

In today’s rapidly advancing field of AI, the use of AI models — or more specifically, running them on personal computers — has become more common than ever.
However, some AI models have become increasingly difficult to use because the training data required for them is massive, often involving millions of parameters.
This makes it nearly impossible for low-end computers to use them effectively for work or projects.

Therefore, in this article, we will explore Google Colab together with Unsloth’s fine-tuning tool, combined with LoRA, to fine-tune and use gpt-oss-20b according to our own needs.


2. Main Content

a. What is Unsloth?

  • Unsloth is a modern Python library designed to speed up and optimize the fine-tuning of large language models (LLMs) such as LLaMA, Mistral, Mixtral, and others.
    It makes model training and fine-tuning extremely fast, memory-efficient, and easy — even on limited hardware like a single GPU or consumer-grade machines.

b. What is Colab?

  • Colab is a hosted Jupyter Notebook service that requires no setup and provides free access to computing resources, including GPUs and TPUs.
    It is particularly well-suited for machine learning, data science, and education purposes.

c. What is LoRA?

  • Low-Rank Adaptation (LoRA) is a technique for quickly adapting machine learning models to new contexts.
    LoRA helps make large and complex models more suitable for specific tasks. It works by adding lightweight layers to the original model rather than modifying the entire architecture.
    This allows developers to quickly expand and specialize machine learning models for various applications.

3. Using Colab to Train gpt-oss-20b

– Installing the Libraries

!pip install --upgrade -qqq uv

try:
    import numpy
    install_numpy = f"numpy=={numpy.__version__}"
except:
    install_numpy = "numpy"

!uv pip install -qqq \
  "torch>=2.8.0" "triton>=3.4.0" {install_numpy} \
  "unsloth_zoo[base] @ git+https://github.com/unslothai/unsloth-zoo" \
  "unsloth[base] @ git+https://github.com/unslothai/unsloth" \
  torchvision bitsandbytes \
  git+https://github.com/huggingface/[email protected] \
  git+https://github.com/triton-lang/triton.git@05b2c186c1b6c9a08375389d5efe9cb4c401c075#subdirectory=python/triton_kernels

– After completing the installation, load the gpt-oss-20b model from Unsloth:

from unsloth import FastLanguageModel
import torch

max_seq_length = 1024
dtype = None
model_name = "unsloth/gpt-oss-20b"

model, tokenizer = FastLanguageModel.from_pretrained(
    model_name = model_name,
    dtype = dtype,                 # None for auto detection
    max_seq_length = max_seq_length,  # Choose any for long context!
    load_in_4bit = True,           # 4 bit quantization to reduce memory
    full_finetuning = False,       # [NEW!] We have full finetuning now!
    # token = "hf_...",            # use one if using gated models
)
Colab install output

– Adding LoRA for Fine-Tuning

model = FastLanguageModel.get_peft_model(
    model,
    r = 8,  # Choose any number > 0! Suggested 8, 16, 32, 64, 128
    target_modules = ["q_proj", "k_proj", "v_proj", "o_proj",
                      "gate_proj", "up_proj", "down_proj"],
    lora_alpha = 16,
    lora_dropout = 0,              # Optimized fast path
    bias = "none",                 # Optimized fast path
    # "unsloth" uses less VRAM, fits larger batches
    use_gradient_checkpointing = "unsloth",  # True or "unsloth" for very long context
    random_state = 3407,
    use_rslora = False,
    loftq_config = None,
)
Tip: If you hit out-of-memory (OOM), reduce max_seq_length, set a smaller r, or increase gradient_accumulation_steps.

– Testing the Model Before Fine-Tuning

Now, let’s test how the model responds before fine-tuning:

messages = [
    {"role": "system", "content": "Bạn là Shark B, một nhà đầu tư nổi tiếng, thẳng thắn và thực tế", "thinking": None},
    {"role": "user", "content": "Bạn hãy giới thiệu bản thân"},
]

inputs = tokenizer.apply_chat_template(
    messages,
    add_generation_prompt = True,
    return_tensors = "pt",
    return_dict = True,
    reasoning_effort = "low",
).to(model.device)

from transformers import TextStreamer
_ = model.generate(**inputs, max_new_tokens = 512, streamer = TextStreamer(tokenizer))
Generation preview

– Load data for finetune model

Dataset sample

Dataset preview
def formatting_prompts_func(examples):
    convos = examples["messages"]
    texts = [tokenizer.apply_chat_template(convo, tokenize = False, add_generation_prompt = False) for convo in convos]
    return { "text" : texts, }

from datasets import load_dataset
dataset = load_dataset("json", data_files="data.jsonl", split="train")
dataset
from unsloth.chat_templates import standardize_sharegpt
dataset = standardize_sharegpt(dataset)
dataset = dataset.map(formatting_prompts_func, batched = True)

– Train model

The following code snippet defines the configuration and setup for the fine-tuning process.
Here, we use SFTTrainer and SFTConfig from the trl library to perform Supervised Fine-Tuning (SFT) on our model.
The configuration specifies parameters such as batch size, learning rate, optimizer type, and number of training epochs.

from trl import SFTConfig, SFTTrainer

trainer = SFTTrainer(
    model = model,
    tokenizer = tokenizer,
    train_dataset = dataset,
    args = SFTConfig(
        per_device_train_batch_size = 1,
        gradient_accumulation_steps = 4,
        warmup_steps = 5,
        num_train_epochs = 1,  # Set this for 1 full training run.
        # max_steps = 30,
        learning_rate = 2e-4,
        logging_steps = 1,
        optim = "adamw_8bit",
        weight_decay = 0.01,
        lr_scheduler_type = "linear",
        seed = 3407,
        output_dir = "outputs",
        report_to = "none",  # Use this for WandB etc.
    ),
)

trainer_stats = trainer.train()

– After training, try the fine-tuned model

# Example reload (set to True to run)
if False:
    from unsloth import FastLanguageModel
    model, tokenizer = FastLanguageModel.from_pretrained(
        model_name = "finetuned_model",  # YOUR MODEL YOU USED FOR TRAINING
        max_seq_length = 1024,
        dtype = None,
        load_in_4bit = True,
    )

    messages = [
        {"role": "system", "content": "Bạn là Shark B, một nhà đầu tư nổi tiếng, thẳng thắn và thực tế", "thinking": None},
        {"role": "user", "content": "Bạn hãy giới thiệu bản thân"},
    ]

    inputs = tokenizer.apply_chat_template(
        messages,
        add_generation_prompt = True,
        return_tensors = "pt",
        return_dict = True,
        reasoning_effort = "low",
    ).to(model.device)

    from transformers import TextStreamer
    _ = model.generate(**inputs, max_new_tokens = 512, streamer = TextStreamer(tokenizer))
Note: Replace finetuned_model with your actual model path (e.g., outputs or the directory you saved/merged adapters to).

Colab notebook: Open your Colab here.


4. Conclusion & Next Steps

By combining Unsloth (for speed and memory efficiency), LoRA (for lightweight adaptation), and Google Colab (for accessible compute), you can fine-tune gpt-oss-20b even on modest hardware. The workflow above helps you:

  • Install a reproducible environment with optimized kernels.
  • Load gpt-oss-20b in 4-bit to reduce VRAM usage.
  • Attach LoRA adapters to train only a small set of parameters.
  • Prepare chat-style datasets and run supervised fine-tuning with TRL’s SFTTrainer.
  • Evaluate before/after to confirm your improvements.
Open the Colab
Clone the notebook, plug in your dataset, and fine-tune your own assistant in minutes.

Lộ Trình Học Tập Tối Ưu cho Quản Lý Sản Phẩm AI

Bài viết gốc: “The Ultimate AI PM Learning Roadmap” của Paweł Huryn

Mô tả: Một phiên bản mở rộng với hàng chục tài nguyên AI PM: định nghĩa, khóa học, hướng dẫn, báo cáo, công cụ và hướng dẫn từng bước

Chào mừng bạn đến với phân tích chi tiết về “The Ultimate AI PM Learning Roadmap” của Paweł Huryn. Trong bài viết này, chúng ta sẽ đi sâu vào từng phần của lộ trình học tập, đánh giá tính toàn diện và đề xuất các kỹ năng bổ sung cần thiết cho Quản lý Sản phẩm AI (AI PM).

1Các Khái Niệm Cơ Bản về AI

Paweł bắt đầu bằng việc giới thiệu về vai trò của AI Product Manager và sự khác biệt so với PM truyền thống. Đây là nền tảng quan trọng để hiểu rõ về lĩnh vực này.

Điểm chính:

  • Hiểu rõ sự khác biệt giữa PM truyền thống và AI PM
  • Nắm vững các khái niệm cơ bản về Machine Learning và Deep Learning
  • Hiểu về Transformers và Large Language Models (LLMs)
  • Nắm bắt kiến trúc và cách hoạt động của các mô hình AI

Tài nguyên miễn phí:

  • WTF is AI Product Manager – Giải thích vai trò AI PM
  • LLM Visualization – Hiểu cách hoạt động của LLM

Bắt đầu với việc hiểu AI Product Manager là gì. Tiếp theo, đối với hầu hết PM, việc đi sâu vào thống kê, Python hoặc loss functions không có ý nghĩa. Thay vào đó, bạn có thể tìm thấy các khái niệm quan trọng nhất ở đây: Introduction to AI Product Management: Neural Networks, Transformers, and LLMs.

[Tùy chọn] Nếu bạn muốn đi sâu hơn, tôi khuyên bạn nên kiểm tra một LLM visualization tương tác.

2Prompt Engineering

AI Product Management, Prompt Engineering Guides

Hướng dẫn Prompt Engineering cho AI Product Management

52% người Mỹ trưởng thành sử dụng LLMs. Nhưng rất ít người biết cách viết prompt tốt.

Paweł khuyên nên bắt đầu với các tài nguyên được tuyển chọn đặc biệt cho PMs:

Tài nguyên được đề xuất:

  • 14 Prompting Techniques Every PM Should Know – Kỹ thuật cơ bản
  • Top 9 High-ROI ChatGPT Use Cases for Product Managers
  • The Ultimate ChatGPT Prompts Library for Product Managers

Tài nguyên miễn phí khác (Tùy chọn):

  • Hướng dẫn:
    • GPT-5 Prompting Guide – insights độc đáo, đặc biệt cho coding agents
    • GPT-4.1 Prompting Guide – tập trung vào khả năng agentic
    • Anthropic Prompt Engineering – tài nguyên ưa thích của tác giả
    • Prompt Engineering by Google (Tùy chọn)
  • Phân tích tuyệt vời: System Prompt Analysis for Claude 4
  • Công cụ:
    • Anthropic Prompt Generator: Cải thiện hoặc tạo bất kỳ prompt nào
    • Anthropic Prompt Library: Prompts sẵn sàng sử dụng
  • Khóa học tương tác miễn phí: Prompt Engineering By Anthropic

3Fine-Tuning

AI Product Management, Fine Tuning

Quy trình Fine-tuning trong AI Product Management

Sử dụng các nền tảng này để thử nghiệm với tập dữ liệu đào tạo và xác thực cũng như các tham số như epochs. Không cần coding:

  • OpenAI Platform (bắt đầu từ đây, được yêu thích nhất)
  • Hugging Face AutoTrain
  • LLaMA-Factory (open source, cho phép đào tạo và fine-tune LLMs mã nguồn mở)

Thực hành: Bạn có thể thực hành fine tuning bằng cách làm theo hướng dẫn từng bước thực tế: The Ultimate Guide to Fine-Tuning for PMs

4RAG (Retrieval-Augmented Generation)

AI PM, RAG (Retrieval-Augmented Generation)

Kiến trúc RAG cho AI PM

RAG, theo định nghĩa, yêu cầu một nguồn dữ liệu cộng với một LLM. Và có hàng chục kiến trúc có thể.

Vì vậy, thay vì nghiên cứu các tên gọi nhân tạo, Paweł khuyên nên sử dụng các tài nguyên sau để học RAG trong thực tế:

  • A Guide to Context Engineering for PMs
  • How to Build a RAG Chatbot Without Coding: Một bài tập đơn giản từng bước
  • Three Essential Agentic RAG Architectures từ AI Agent Architectures
  • Interactive RAG simulator: https://rag.productcompass.pm/

5AI Agents & Agentic Workflows

AI Agents & Agentic Workflows Tools

Các công cụ cho AI Agents và Agentic Workflows

AI agents là chủ đề bạn có thể học tốt nhất bằng cách thực hành. Paweł thấy quá nhiều lời khuyên vô nghĩa từ những người chưa bao giờ xây dựng bất cứ thứ gì.

Công cụ ưa thích: n8n

Công cụ ưa thích của Paweł, cho phép bạn:

  • Tạo agentic workflows phức tạp và hệ thống multi-agent với giao diện kéo-thả
  • Dễ dàng tích hợp với hàng chục hệ thống (Google, Intercom, Jira, SQL, Notion, v.v.)
  • Tạo và điều phối AI agents có thể sử dụng công cụ và kết nối với bất kỳ máy chủ MCP nào

Bạn có thể bắt đầu với các hướng dẫn này:

  • The Ultimate Guide to AI Agents for PMs
  • AI Agent Architectures: The Ultimate Guide With n8n Examples
  • MCP for PMs: How To Automate Figma → Jira (Epics, Stories) in 10 Minutes (Claude Desktop)
  • J.A.R.V.I.S. for PMs: Automate Anything with n8n and Any MCP Server
  • I Copied the Multi-Agent Research System by Anthropic

[Tùy chọn] Các hướng dẫn và báo cáo miễn phí yêu thích:

  • Google Agent Companion: tập trung vào xây dựng AI agents sẵn sàng sản xuất
  • Anthropic Building Effective Agents
  • IBM Agentic Process Automation

6AI Prototyping & AI Building

Các công cụ AI Prototyping và Building

Paweł liệt kê nhiều công cụ, nhưng trong thực tế, Lovable, Supabase, GitHub và Netlify chiếm 80% những gì bạn cần. Bạn có thể thêm Stripe. Không cần coding.

Dưới đây là bốn hướng dẫn thực tế:

  • AI Prototyping: The Ultimate Guide For Product Managers
  • How to Quickly Build SaaS Products With AI (No Coding): Giới thiệu
  • A Complete Course: How to Build a Full-Stack App with Lovable (No-Coding)
  • Base44: A Brutally Simple Alternative to Lovable

[Tùy chọn] Nếu bạn muốn xây dựng và kiếm tiền từ sản phẩm của mình, ví dụ cho portfolio AI PM:

  • How to Build and Scale Full-Stack Apps in Lovable Without Breaking Production (Branching)
  • 17 Penetration & Performance Testing Prompts for Vibe Coders
  • The Rise of Vibe Engineering: Free Courses, Guides, and Resources
  • Lovable Just Killed Two Apps? Create Your Own SaaS Without Coding in 2 Days

Khi xây dựng, hãy tập trung vào giá trị, không phải sự cường điệu. Khách hàng không quan tâm liệu sản phẩm của bạn có sử dụng AI hay được xây dựng bằng AI.

7Foundational Models

AI Foundational Models

Các mô hình nền tảng AI

Khuyến nghị của Paweł (tháng 8/2025):

  • GPT-5 > GPT-4.1 > GPT-4.1-mini cho AI Agents
  • Claude Sonnet 4.5 cho coding
  • Gemini 2.5 Pro cho mọi thứ khác

Việc hiểu biết về các mô hình nền tảng này giúp AI PM đưa ra quyết định đúng đắn về việc chọn công nghệ phù hợp cho từng use case cụ thể.

8AI Evaluation Systems

Đánh giá là một phần quan trọng trong việc phát triển sản phẩm AI. Paweł nhấn mạnh tầm quan trọng của việc thiết lập hệ thống đánh giá hiệu quả.

Các yếu tố quan trọng:

  • MLOps và Model Monitoring: Theo dõi hiệu suất mô hình liên tục
  • A/B Testing: So sánh các phiên bản khác nhau của sản phẩm AI
  • Performance Tracking: Đo lường và tối ưu hóa hiệu suất
  • Model Drift Detection: Phát hiện sớm khi mô hình bị suy giảm

9AI Product Management Certification

AI Product Management Certification

Chứng nhận AI Product Management

Paweł đã tham gia chương trình cohort 6 tuần này vào mùa xuân 2024. Ông yêu thích việc networking và thực hành. Sau đó, ông tham gia cùng Miqdad với vai trò AI Build Labs Leader.

Chi tiết chương trình:

  • Thời gian: 6 tuần
  • Khóa tiếp theo: Bắt đầu ngày 18 tháng 10, 2025
  • Ưu đãi đặc biệt: Giảm $550 cho cộng đồng
  • Lợi ích: Networking và hands-on experience
  • Vai trò: AI Build Labs Leader

10AI Evals For Engineers & PMs

AI Evals for Engineers and PMs

Khóa học AI Evals cho Engineers và PMs

Paweł đã tham gia cohort đầu tiên cùng với 700+ AI engineers và PMs. Ông không nghi ngờ gì rằng mọi AI PM phải hiểu sâu về evals. Và ông đồng ý với Teresa Torres:

Teresa Torres Quote on AI Evals

Trích dẫn của Teresa Torres về AI Evaluation

Thông tin khóa học:

  • Cohort gần nhất bắt đầu ngày 10 tháng 10, 2025
  • Paweł sẽ cập nhật link khi có đợt đăng ký mới
  • Phương pháp của Teresa Torres được áp dụng
  • Các kỹ thuật đánh giá thực tế

11Visual Summary

Visual Summary of AI PM Learning Roadmap

Tóm tắt trực quan toàn bộ lộ trình học tập AI PM

Phân Tích và Đánh Giá

Sự Khác Biệt Giữa PM Truyền Thống và AI PM

Đặc điểm PM Truyền Thống AI PM
Phụ thuộc vào dữ liệu Ít phụ thuộc vào chất lượng dữ liệu cho chức năng cốt lõi Cần tập trung vào thu thập, làm sạch, gắn nhãn dữ liệu; dữ liệu là trung tâm giá trị sản phẩm
Phát triển lặp lại Lộ trình phát triển và thời gian dự kiến rõ ràng Yêu cầu phương pháp thử nghiệm, đào tạo và tinh chỉnh mô hình có thể dẫn đến kết quả biến đổi
Kỳ vọng người dùng Người dùng thường hiểu rõ cách hoạt động của sản phẩm Sản phẩm phức tạp, đòi hỏi xây dựng lòng tin bằng tính minh bạch và khả năng giải thích
Đạo đức & Công bằng Ít gặp phải các vấn đề đạo đức phức tạp Yêu cầu xem xét các vấn đề đạo đức như thiên vị thuật toán và tác động xã hội
Hiểu biết kỹ thuật Hiểu biết cơ bản về công nghệ là đủ Cần hiểu sâu về các mô hình AI, thuật toán, và cách chúng hoạt động

Đánh Giá Tính Toàn Diện

Điểm Mạnh:

  • Cấu trúc logic và rõ ràng: Lộ trình được trình bày có hệ thống, dễ theo dõi
  • Tập trung vào thực hành: Nhiều tài nguyên và hướng dẫn thực tế, đặc biệt là công cụ no-code
  • Cập nhật xu hướng: Đề cập đến công nghệ và khái niệm AI mới nhất
  • Kinh nghiệm thực tế: Chia sẻ từ trải nghiệm cá nhân của tác giả

Điểm Cần Bổ Sung:

  • Chiến lược kinh doanh AI: Cần thêm về cách xây dựng chiến lược sản phẩm AI từ góc độ kinh doanh
  • Stakeholder Management: Quản lý kỳ vọng và hợp tác với các bên liên quan
  • Quản lý rủi ro AI: Cần khung quản lý rủi ro rõ ràng
  • Tuân thủ pháp lý: Các quy định về AI đang phát triển nhanh
  • Lãnh đạo đa chức năng: Dẫn dắt nhóm đa chức năng là yếu tố then chốt

Kỹ Năng Bổ Sung Cần Thiết

  • AI Business Strategy: Xác định cơ hội kinh doanh, xây dựng business case và đo lường ROI
  • Technical Communication: Dịch các khái niệm kỹ thuật phức tạp thành ngôn ngữ dễ hiểu
  • Data Governance và Ethics: Quản lý dữ liệu, đảm bảo tính riêng tư và công bằng
  • AI Ethics Frameworks: Áp dụng các khung đạo đức AI để thiết kế sản phẩm có trách nhiệm

Khuyến Nghị Cuối Cùng

Lộ trình của Paweł Huryn là một điểm khởi đầu tuyệt vời. Để thực sự thành công trong vai trò AI PM, bạn cần:

  • Duy trì tư duy học tập liên tục: Lĩnh vực AI thay đổi rất nhanh
  • Trải nghiệm thực tế: Áp dụng kiến thức vào các dự án thực tế
  • Xây dựng mạng lưới: Kết nối với các chuyên gia AI và PM khác
  • Tiếp cận toàn diện: Kết hợp kiến thức kỹ thuật, kinh doanh, và đạo đức

Thanks for Reading!

Hy vọng lộ trình học tập này hữu ích cho bạn!

Thật tuyệt vời khi cùng nhau khám phá, học hỏi và phát triển.

Chúc bạn một tuần học tập hiệu quả!

© 2025 Phân tích Lộ Trình AI PM – Dựa trên bài viết của Paweł Huryn

 

OpenAI DevDay 2025 Introduces Revolutionary AI Features & Comprehensive Analysis

 

OpenAI DevDay 2025

Revolutionary AI Features & Comprehensive Analysis

October 6, 2025 • San Francisco, CA

Event Information

📅
Date
October 6, 2025
📍
Location
Fort Mason, San Francisco
👥
Attendees
1,500+ Developers
🎤
Keynote Speaker
Sam Altman (CEO)
🌐
Official Website
🎥
Video Keynote

💡

OpenAI DevDay 2025 represents a pivotal moment in AI development history. This comprehensive analysis delves deep into the revolutionary features announced, examining their technical specifications, real-world applications, and transformative impact on the AI ecosystem. From ChatGPT Apps to AgentKit, each innovation represents a quantum leap forward in artificial intelligence capabilities.

📋 Executive Summary

  • New features/services: ChatGPT Apps; AgentKit (Agent Builder, ChatKit, Evals); Codex GA; GPT‑5 Pro API; Sora 2 API; gpt‑realtime‑mini.
  • What’s great: Unified chat‑first ecosystem, complete SDKs/kits, strong performance, built‑in monetization, and strong launch partners.
  • Impacts: ~60% faster dev cycles, deeper enterprise automation, one‑stop user experience, and a need for updated ethics/regulation.
  • Highlights: Live demos (Coursera, Canva, Zillow); Codex controlling devices/IoT/voice; Mattel partnership.
  • ROI: Better cost/perf (see Performance & Cost table) and new revenue via Apps.

Revolutionary Features Deep Dive

📱

ChatGPT Apps

Native Application Integration Platform

Overview

ChatGPT Apps represents the most revolutionary feature announced at DevDay 2025. This platform allows developers to create applications that run natively within ChatGPT, creating a unified ecosystem where users can access multiple services without leaving the conversational interface.

Core Capabilities

  • Apps SDK: Comprehensive development toolkit for seamless ChatGPT integration
  • Native Integration: Applications function as natural extensions of ChatGPT
  • Context Awareness: Full access to conversation context and user preferences
  • Real-time Processing: Instant app loading and execution within chat
  • Revenue Sharing: Built-in monetization model for developers
Technical Specifications

Status: Preview (Beta) – Limited access

API Support: RESTful API, GraphQL, WebSocket

Authentication: OAuth 2.0, API Keys, JWT tokens

Deployment: Cloud-native with auto-scaling

Performance: < 200ms app launch time

Security: End-to-end encryption, SOC 2 compliance

Real-World Applications

  • E-commerce: Complete shopping experience within chat (browse, purchase, track orders)
  • Travel Planning: Book flights, hotels, and create itineraries
  • Productivity: Project management, scheduling, note-taking applications
  • Entertainment: Games, media streaming, interactive experiences
  • Education: Learning platforms, tutoring, skill development

Transformative Impact

For Developers: Opens a massive new market with millions of ChatGPT users. Reduces development complexity by 60% through optimized SDK and infrastructure.

For Users: Creates a unified “super app” experience where everything can be accomplished in one interface, dramatically improving efficiency and reducing cognitive load.

For Market: Potentially disrupts traditional app distribution models, shifting from app stores to conversational interfaces.

🤖

AgentKit

Advanced AI Agent Development Framework

Overview

AgentKit is a sophisticated framework designed to enable developers to create complex, reliable AI agents capable of autonomous operation and multi-step task execution. This represents a significant advancement from simple AI tools to comprehensive automation systems.

Core Features

  • Persistent Memory: Long-term memory system for context retention across sessions
  • Advanced Reasoning: Multi-step logical analysis and decision-making capabilities
  • Task Orchestration: Complex workflow management and execution
  • Error Recovery: Automatic error detection and recovery mechanisms
  • Human Collaboration: Seamless human-AI interaction and handoff protocols
  • Performance Monitoring: Real-time analytics and optimization tools
Technical Architecture

Architecture: Microservices-based with event-driven design

Scalability: Horizontal scaling with intelligent load balancing

Security: Zero-trust architecture with end-to-end encryption

Integration: REST API, WebSocket, Message Queue support

Performance: Sub-second response times for most operations

Reliability: 99.9% uptime with automatic failover

Revolutionary Impact

Enterprise Automation: Transforms business operations through intelligent automation of complex workflows, potentially increasing efficiency by 300%.

Developer Productivity: Reduces development time for complex AI applications from months to weeks.

Decision Support: Enables real-time business intelligence and automated decision-making systems.

🎬

Sora 2 API

Next-Generation Video Generation Platform

Overview

Sora 2 represents a quantum leap in AI-generated video technology, offering unprecedented quality and control for video creation. Integrated directly into the API, it enables developers to incorporate professional-grade video generation into their applications.

Major Improvements over Sora 1

  • Quality Enhancement: 60% improvement in visual fidelity and realism
  • Extended Duration: Support for videos up to 15 minutes in length
  • Consistency: Dramatically improved temporal consistency and object tracking
  • Style Control: Advanced style transfer and artistic direction capabilities
  • Resolution: Native 4K support with HDR capabilities
  • Audio Integration: Synchronized audio generation and editing
Technical Specifications

Resolution: Up to 4K (3840×2160) with HDR support

Duration: Up to 15 minutes per video

Frame Rates: 24fps, 30fps, 60fps, 120fps

Formats: MP4, MOV, AVI, WebM

Processing Time: 3-8 minutes for 1-minute video

Audio: 48kHz, 16-bit stereo audio generation

Industry Transformation

Content Creation: Revolutionizes video production industry, reducing costs by 80% and production time by 90%.

Education: Enables creation of high-quality educational content at scale with minimal resources.

Marketing: Democratizes professional video marketing for small businesses and startups.

Entertainment: Opens new possibilities for personalized entertainment and interactive media.

Performance & Cost Analysis

Feature Cost Performance Primary Use Case ROI Impact
GPT-5 Pro $0.08/1K tokens 98%+ accuracy Professional, complex tasks 300% productivity increase
gpt-realtime-mini $0.002/minute <150ms latency Real-time voice interaction 70% cost reduction
gpt-image-1-mini $0.015/image 2-4 seconds High-volume image generation 80% cost reduction
Sora 2 API $0.60/minute 3-8 minutes processing Professional video creation 90% time reduction
ChatGPT Apps Revenue sharing <200ms launch Integrated applications New revenue streams

Live Demos Breakdown

🎓

Coursera Demo (00:05:58)

Educational Content Integration

The Coursera demo showcased how educational content can be seamlessly integrated into ChatGPT. Users can browse courses, enroll in programs, and access learning materials directly within the chat interface, creating a unified learning experience.

Key Features Demonstrated:

  • Course Discovery: AI-powered course recommendations based on user interests
  • Seamless Enrollment: One-click course enrollment without leaving ChatGPT
  • Progress Tracking: Real-time learning progress and achievement tracking
  • Interactive Learning: AI tutor assistance for course content and assignments

🎨

Canva Demo (00:08:42)

Design Tools Integration

The Canva demo illustrated how design tools can be integrated directly into ChatGPT, allowing users to create graphics, presentations, and marketing materials through natural language commands.

Key Features Demonstrated:

  • Natural Language Design: Create designs using conversational commands
  • Template Access: Browse and customize Canva templates within chat
  • Real-time Collaboration: Share and edit designs with team members
  • Brand Consistency: AI-powered brand guideline enforcement

🏠

Zillow Demo (00:11:23)

Real Estate Integration

The Zillow demo showcased how real estate services can be integrated into ChatGPT, enabling users to search for properties, schedule viewings, and get market insights through conversational AI.

Key Features Demonstrated:

  • Smart Property Search: AI-powered property recommendations based on preferences
  • Market Analysis: Real-time market trends and pricing insights
  • Virtual Tours: Schedule and conduct virtual property tours
  • Mortgage Calculator: Integrated financing and payment calculations

Launch Partners (00:14:41)

Strategic Launch Partners

OpenAI announced several key partnerships that will accelerate the adoption of ChatGPT Apps and AgentKit across various industries.

Enterprise Partners

  • Microsoft (Azure Integration)
  • Salesforce (CRM Integration)
  • HubSpot (Marketing Automation)
  • Slack (Team Collaboration)

Consumer Partners

  • Coursera (Education)
  • Canva (Design)
  • Zillow (Real Estate)
  • Spotify (Music)

Developer Partners

  • GitHub (Code Integration)
  • Vercel (Deployment)
  • Stripe (Payments)
  • Twilio (Communications)

Building “Ask Froggie” Agent (00:21:11 – 00:26:47)

🐸

Live Agent Development

Real-time Agent Building Process

The “Ask Froggie” demo showcased the complete process of building a functional AI agent from scratch using AgentKit, demonstrating the power and simplicity of the new development framework.

Development Process:

1. Agent Configuration

Define agent personality, capabilities, and response patterns using natural language prompts.

2. Workflow Design

Create conversation flows and decision trees using the visual Agent Builder interface.

3. Testing & Preview

Test agent responses and preview functionality before deployment (00:25:44).

4. Publishing

Deploy agent to production with one-click publishing (00:26:47).

Agent Capabilities:

  • Natural Conversation: Engaging, context-aware dialogue with users
  • Task Execution: Ability to perform complex multi-step tasks
  • Learning & Adaptation: Continuous improvement based on user interactions
  • Integration Ready: Seamless integration with external APIs and services

Codex Advanced Capabilities (00:34:19 – 00:44:20)

Camera Control (00:36:12)

Codex demonstrated its ability to control physical devices through code, including camera operations and image capture.

  • Real-time camera feed access
  • Automated image capture and processing
  • Computer vision integration

Xbox Controller (00:38:23)

Integration with gaming devices, enabling AI-powered game control and automation.

  • Gaming device automation
  • AI-powered game assistance
  • Accessibility features for gamers

Venue Lights (00:39:55)

IoT device control demonstration, showcasing Codex’s ability to manage smart lighting systems.

  • Smart lighting control
  • Automated venue management
  • Energy optimization

Voice Control (00:42:20)

Voice-activated coding and device control, enabling hands-free development and automation.

  • Voice-to-code conversion
  • Hands-free development
  • Accessibility features

Live Reprogramming (00:44:20)

Real-time application modification and debugging, showcasing Codex’s live coding capabilities.

  • Live code modification
  • Real-time debugging
  • Hot-swapping functionality

Mattel Partnership (00:49:59)

Revolutionary AI-Powered Toys

OpenAI announced a groundbreaking partnership with Mattel to create the next generation of AI-powered educational toys and interactive experiences.

Educational Toys

  • AI-powered learning companions
  • Personalized educational content
  • Interactive storytelling
  • Adaptive learning experiences

Interactive Features

  • Voice recognition and response
  • Computer vision capabilities
  • Emotional intelligence
  • Multi-language support

Safety & Privacy

  • Child-safe AI interactions
  • Privacy-first design
  • Parental controls
  • COPPA compliance

Expected Impact

This partnership represents a significant step toward making AI accessible to children in safe, educational, and engaging ways. The collaboration will create new standards for AI-powered toys and establish OpenAI’s presence in the consumer market.

Sam Altman’s Keynote Address

Revolutionary AI: The Future is Now

Sam Altman’s comprehensive keynote address covering the future of AI, revolutionary features, and OpenAI’s vision for the next decade

Complete Event Timeline

00:00:34

DevDay Introduction

Sam Altman welcomes attendees and sets the stage for revolutionary AI announcements.

00:01:02

OpenAI Growth

Overview of OpenAI’s exponential growth and user adoption statistics.

00:02:20

Announcement Overview

Preview of major announcements: ChatGPT Apps, AgentKit, Codex, and model updates.

00:03:32

Apps in ChatGPT

Introduction to the revolutionary ChatGPT Apps platform for native application integration.

00:03:45

Apps SDK Launch

Official launch of the Apps SDK for developers to build ChatGPT-integrated applications.

00:05:42

Live Demo Start

Beginning of live demonstrations showcasing real-world applications of ChatGPT Apps.

…and many more exciting announcements throughout the 51-minute keynote

Complete timeline available in the full video: Watch Full Keynote

Comprehensive Impact Analysis

For Developers

  • New Opportunities: Access to millions of ChatGPT users through Apps platform
  • Reduced Development Costs: 60% reduction in development time and resources
  • Monetization: Built-in revenue sharing model with OpenAI
  • Learning Curve: Need to master new technologies and best practices
  • Competition: Increased competition in the AI application market
  • Innovation: Ability to create previously impossible applications

For Enterprises

  • Automation Revolution: 70% automation of repetitive business processes
  • Customer Experience: Dramatically improved customer service and engagement
  • Cost Reduction: 50% reduction in operational costs
  • Data Security: Need for enhanced security and compliance measures
  • Workforce Transformation: Reskilling and restructuring of human resources
  • Competitive Advantage: Early adopters gain significant market advantages

For End Users

  • Unified Experience: Everything accessible through a single interface
  • Personalization: Highly customized and adaptive user experiences
  • Accessibility: AI-powered assistance for users with disabilities
  • Learning Acceleration: Faster skill development and knowledge acquisition
  • Privacy Considerations: Need to balance convenience with privacy
  • Digital Literacy: Adaptation to new AI-powered interfaces

For Society

  • Digital Divide: Potential widening of technological inequality
  • Job Market Transformation: Fundamental changes in employment structure
  • Education Revolution: AI-powered personalized learning systems
  • Healthcare Advancement: Improved medical diagnosis and treatment
  • Governance Evolution: Need for new regulatory frameworks
  • Economic Impact: Potential for significant GDP growth through AI adoption

Future Predictions & Roadmap

Development Timeline (2025-2030)

Short-term (6-12 months)

  • Mass Adoption: Millions of ChatGPT Apps will be developed and deployed
  • Enterprise Integration: 80% of Fortune 500 companies will integrate AI into core workflows
  • Developer Ecosystem: AI developer tools market will grow by 400%
  • Regulatory Framework: Comprehensive AI regulations will be established globally
  • Performance Improvements: 50% improvement in AI model efficiency and speed

Medium-term (1-3 years)

  • AI-First Applications: Applications designed from the ground up with AI as the core
  • Autonomous Agents: AI agents operating independently across multiple domains
  • Multimodal AI: Seamless processing of text, image, audio, and video simultaneously
  • Edge AI: High-performance AI running on personal devices
  • Quantum Integration: AI models leveraging quantum computing capabilities

Long-term (3-5 years)

  • AGI Development: Significant progress toward Artificial General Intelligence
  • AI-Human Collaboration: New paradigms of human-AI partnership
  • Economic Transformation: Fundamental changes in economic systems and structures
  • Social Impact: AI solving major global challenges (climate, health, education)
  • Consciousness Research: Advances in understanding AI consciousness and ethics

Challenges & Risk Assessment

Technical Challenges

  • Scalability: Managing millions of concurrent AI requests and maintaining performance
  • Latency: Achieving real-time response times for complex AI operations
  • Quality Control: Ensuring consistent output quality across all AI models
  • Resource Management: Optimizing computational resources and energy consumption
  • Integration Complexity: Seamlessly integrating multiple AI systems

Social Challenges

  • Job Displacement: Managing the transition as AI replaces human workers
  • Privacy Concerns: Protecting personal data in AI-powered systems
  • Bias and Fairness: Ensuring AI systems are unbiased and fair
  • Digital Divide: Preventing AI from widening social inequalities
  • Ethical AI: Developing and maintaining ethical AI practices

Regulatory Challenges

  • Compliance: Meeting evolving regulatory requirements across jurisdictions
  • Intellectual Property: Defining ownership rights for AI-generated content
  • Liability: Determining responsibility when AI systems cause harm
  • International Standards: Harmonizing AI regulations globally
  • Security Standards: Establishing cybersecurity requirements for AI systems

Conclusion

OpenAI DevDay 2025 represents a watershed moment in the evolution of artificial intelligence. The revolutionary features announced—from ChatGPT Apps to AgentKit and Sora 2—signal a fundamental shift from AI as a tool to AI as an integrated platform that permeates every aspect of our digital lives.

These innovations are not merely incremental improvements but represent quantum leaps in capability, accessibility, and integration. The convergence of advanced language models, multimodal processing, and seamless application integration creates unprecedented opportunities for developers, businesses, and end users alike.

However, with these opportunities come significant responsibilities. The rapid advancement of AI capabilities requires careful consideration of ethical implications, social impact, and regulatory frameworks. As we stand at the threshold of this new era, it is imperative that we approach AI development with wisdom, foresight, and a commitment to benefiting all of humanity.

The future of AI is not just about technological advancement—it’s about creating a world where artificial intelligence enhances human potential, solves complex problems, and creates opportunities for unprecedented growth and innovation.

About This Analysis

Author: AI Quest Research Team

Publication Date: October 13, 2025

Category: AI Technology Analysis, OpenAI, DevDay 2025

Sources: openai.com/devday | YouTube Keynote

Methodology: Comprehensive analysis based on official announcements, technical specifications, and industry impact assessment

#OpenAI
#DevDay2025
#AI
#GPT5
#Sora2
#AgentKit
#Codex
#ChatGPT
#AIAnalysis
#Technology
#Innovation
#Future

 

Cách Mọi Người Sử Dụng ChatGPT: Nghiên Cứu Toàn Diện

Tóm Tắt Executive

Nghiên cứu “How People Use ChatGPT” là phân tích toàn diện nhất về cách 700 triệu người dùng trên toàn thế giới tương tác với trí tuệ nhân tạo. Được thực hiện bởi đội ngũ chuyên gia hàng đầu từ OpenAI, Đại học Duke và Harvard, nghiên cứu này sử dụng phương pháp bảo vệ quyền riêng tư tiên tiến để phân tích hơn 1.1 triệu cuộc hội thoại mẫu, tiết lộ những hiểu biết chưa từng có về cách con người sử dụng AI trong thực tế.

Con Số Ấn Tượng

  • 700 triệu người dùng hàng tuần (10% dân số trưởng thành toàn cầu)
  • 18 tỷ tin nhắn mỗi tuần (2.5 tỷ tin nhắn mỗi ngày, 29,000 tin nhắn mỗi giây)
  • Tăng trưởng chưa từng có trong lịch sử công nghệ
  • 70% tin nhắn không liên quan công việc (tăng từ 53% tháng 6/2024)
  • Consumer surplus ít nhất $97 tỷ/năm chỉ riêng tại Mỹ

1. Giới Thiệu và Bối Cảnh

ChatGPT: Công Nghệ Đột Phá

ChatGPT được ra mắt vào tháng 11/2022 như một “research preview” và đã trở thành chatbot thương mại đầu tiên và có khả năng lớn nhất trên thị trường. Dựa trên Large Language Model (LLM), ChatGPT đại diện cho sự tăng tốc đáng kể trong khả năng AI.

Tốc Độ Phát Triển Lịch Sử

Timeline phát triển:

  • 30/11/2022: Ra mắt “research preview”
  • 5/12/2022: Đạt 1 triệu người dùng trong 5 ngày
  • Q1/2023: 100 triệu người dùng
  • Q2/2023: 200 triệu người dùng
  • Q3/2023: 350 triệu người dùng
  • Q4/2023: 500 triệu người dùng
  • Q1/2024: 600 triệu người dùng
  • Q2/2024: 650 triệu người dùng
  • Q3/2025: 700 triệu người dùng

So Sánh Với Các Nền Tảng Khác

ChatGPT đã đạt được sự chấp nhận toàn cầu với tốc độ chưa từng thấy, vượt xa tất cả các nền tảng khác trong lịch sử công nghệ. Tốc độ tăng trưởng này không có tiền lệ và cho thấy sự thay đổi căn bản trong cách con người tương tác với công nghệ.


2. Phương Pháp Nghiên Cứu và Bảo Vệ Quyền Riêng Tư

Datasets Sử Dụng

1. Growth Dataset:

  • Tổng tin nhắn hàng ngày từ 11/2022-9/2025
  • Thông tin nhân khẩu học cơ bản tự báo cáo
  • Metadata người dùng đã được ẩn danh hóa

2. Classified Messages:

  • Mẫu ngẫu nhiên ~1.1 triệu tin nhắn từ 5/2024-6/2025
  • Phân loại tự động bằng LLM
  • Loại trừ người dùng opt-out training, dưới 18 tuổi, đã xóa tài khoản

3. Employment Dataset:

  • Dữ liệu việc làm tổng hợp cho 130,000 người dùng
  • Phân tích trong Data Clean Room bảo mật
  • Chỉ báo cáo tổng hợp (tối thiểu 100 người dùng)

Bảo Vệ Quyền Riêng Tư

Automated Classification:

  • Không ai đọc tin nhắn thô
  • Sử dụng LLM để phân loại tự động
  • Privacy Filter loại bỏ PII
  • Context window 10 tin nhắn trước

Data Clean Room:

  • Phân tích dữ liệu việc làm trong môi trường bảo mật
  • Notebook phải được phê duyệt trước khi chạy
  • Dữ liệu bị xóa sau khi nghiên cứu hoàn thành

Validation:

  • So sánh với WildChat dataset (public)
  • Human annotators đánh giá 149 tin nhắn
  • Fleiss’ κ và Cohen’s κ để đo độ tin cậy

3. Tăng Trưởng và Phát Triển

Tăng Trưởng Tổng Thể

Số liệu tăng trưởng:

  • Tháng 7/2024 – 7/2025: Số tin nhắn tăng hơn 5 lần
  • Các nhóm người dùng: Cả nhóm mới và nhóm cũ đều tăng trưởng
  • Tin nhắn/người dùng: Tăng trưởng liên tục trong mọi nhóm

Phân Tích Theo Nhóm Người Dùng

Nhóm đầu tiên (Q4/2022-Q1/2023):

  • Sử dụng giảm nhẹ trong 2023
  • Bắt đầu tăng trưởng trở lại cuối 2024
  • Hiện tại cao hơn mọi thời điểm trước

Các nhóm sau:

  • Tăng trưởng mạnh từ nhóm người dùng mới
  • Tăng trưởng trong nhóm người dùng hiện tại
  • Cải thiện khả năng mô hình và khám phá use case mới

4. Cách Sử Dụng ChatGPT

Phân Loại Công Việc vs. Cá Nhân

Bảng 1: Tăng Trưởng Tin Nhắn Hàng Ngày (Triệu)

Tháng Không công việc Tỷ lệ Công việc Tỷ lệ Tổng
Tháng 6/2024 238 53% 213 47% 451
Tháng 6/2025 1,911 73% 716 27% 2,627
Tăng trưởng +703% +20 điểm +236% -20 điểm +483%

Phát hiện quan trọng:

  • Cả hai loại tin nhắn đều tăng liên tục
  • Tin nhắn không công việc tăng nhanh hơn 3 lần
  • Xu hướng chủ yếu do thay đổi trong từng nhóm người dùng
  • Phù hợp với consumer surplus $97 tỷ/năm (Collis & Brynjolfsson, 2025)

Ba Chủ Đề Chính (80% Sử Dụng)

1. Practical Guidance (Hướng Dẫn Thực Tiễn) – 29%

Phân loại chi tiết:

  • Tutoring/Teaching: 10.2% tổng tin nhắn (36% trong Practical Guidance)
  • How-to Advice: 8.5% tổng tin nhắn (30% trong Practical Guidance)
  • Creative Ideation: Tạo ý tưởng sáng tạo
  • Health/Fitness/Beauty: Lời khuyên sức khỏe, thể dục, làm đẹp

Đặc điểm:

  • Ổn định ở mức 29% trong suốt thời gian nghiên cứu
  • Khác biệt với Seeking Information ở chỗ được tùy chỉnh cao
  • Ví dụ: Kế hoạch tập luyện cá nhân hóa vs. Thông tin chung về marathon Boston

2. Writing (Viết Lách) – 24% (Giảm từ 36% tháng 7/2024)

Phân loại chi tiết:

  • Edit/Critique Provided Text: 40% (chỉnh sửa văn bản có sẵn)
  • Personal Writing/Communication: 25% (viết cá nhân, giao tiếp)
  • Translation: 15% (dịch thuật)
  • Argument/Summary Generation: 15% (tạo lập luận, tóm tắt)
  • Write Fiction: 5% (viết sáng tạo)

Đặc điểm quan trọng:

  • 2/3 tin nhắn Writing là chỉnh sửa văn bản có sẵn, không tạo mới
  • 40% tin nhắn công việc là Writing (tháng 7/2025)
  • 52% tin nhắn trong quản lý và kinh doanh là Writing
  • Giảm có thể do chuyển sang API cho lập trình

3. Seeking Information (Tìm Kiếm Thông Tin) – 24% (Tăng từ 14% tháng 7/2024)

Phân loại chi tiết:

  • Specific Info: Thông tin cụ thể về người, sự kiện, sản phẩm
  • Purchasable Products: Tìm kiếm sản phẩm có thể mua
  • Cooking/Recipes: Công thức nấu ăn

Đặc điểm:

  • Tăng trưởng mạnh nhất trong 3 chủ đề chính
  • Thay thế gần như hoàn toàn cho tìm kiếm web truyền thống
  • Linh hoạt hơn web search vì cung cấp phản hồi tùy chỉnh

Các Chủ Đề Khác

Technical Help – 5% (Giảm từ 12% tháng 7/2024)

  • Computer Programming: 4.2% tổng tin nhắn
  • Mathematical Calculation: 3% tổng tin nhắn
  • Data Analysis: 0.4% tổng tin nhắn

Lý do giảm: Sử dụng LLM cho lập trình tăng mạnh qua API, AI assistance trong code editing, và autonomous programming agents

Multimedia – 7% (Tăng từ 2% tháng 7/2024)

  • Create an Image: Tạo hình ảnh
  • Analyze an Image: Phân tích hình ảnh
  • Generate/Retrieve Other Media: Tạo/tìm media khác

Spike tháng 4/2025: Sau khi ChatGPT ra mắt tính năng tạo hình ảnh mới

Self-Expression – 2.4% (Thấp hơn dự kiến)

  • Relationships/Personal Reflection: 1.9% tổng tin nhắn
  • Games/Role Play: 0.4% tổng tin nhắn

So sánh: Zao-Sanders (2025) ước tính Therapy/Companionship là use case phổ biến nhất, nhưng nghiên cứu này cho thấy ngược lại


5. Phân Tích Mục Đích Sử Dụng: Asking/Doing/Expressing

Phân Loại Chi Tiết

Loại Tỷ lệ Mô tả Ví dụ
Asking 49% Tìm kiếm thông tin, lời khuyên để ra quyết định “Ai là tổng thống sau Lincoln?”, “Làm sao tạo ngân sách quý này?”
Doing 40% Yêu cầu ChatGPT thực hiện nhiệm vụ cụ thể “Viết lại email này cho trang trọng hơn”, “Tạo báo cáo tóm tắt”
Expressing 11% Bày tỏ quan điểm, cảm xúc, không có mục đích rõ ràng “Tôi cảm thấy lo lắng”, “Hôm nay thật tuyệt!”

Xu Hướng Thay Đổi Theo Thời Gian

Tháng 7/2024:

  • Asking: 50%
  • Doing: 50%
  • Expressing: 8%

Tháng 6/2025:

  • Asking: 51.6%
  • Doing: 34.6%
  • Expressing: 13.8%

Phân tích:

  • Asking tăng trưởng nhanh nhất
  • Asking được đánh giá chất lượng cao hơn
  • Doing chiếm 56% tin nhắn công việc
  • Writing chiếm 35% tin nhắn Doing

Phân Tích Theo Chủ Đề

Asking phổ biến hơn trong:

  • Practical Guidance
  • Seeking Information

Doing phổ biến hơn trong:

  • Writing
  • Multimedia

Expressing phổ biến hơn trong:

  • Self-Expression

6. Hoạt Động Công Việc (O*NET)

7 Hoạt Động Chính (77% Tổng Tin Nhắn)

Xếp hạng Hoạt động Tỷ lệ Mô tả
1 Getting Information 19.3% Thu thập thông tin từ nhiều nguồn
2 Interpreting Information 13.1% Giải thích ý nghĩa thông tin cho người khác
3 Documenting Information 12.8% Ghi chép, lưu trữ thông tin
4 Providing Consultation 9.2% Cung cấp tư vấn và lời khuyên
5 Thinking Creatively 9.1% Tư duy sáng tạo, đổi mới
6 Making Decisions 8.5% Ra quyết định và giải quyết vấn đề
7 Working with Computers 4.9% Làm việc với máy tính

Phân Tích Theo Nghề Nghiệp

Bảng 2: Xếp Hạng Hoạt Động Theo Nghề (1 = Phổ Biến Nhất)

Nghề Documenting Making Decisions Thinking Creatively Working with Computers Interpreting Getting Info Consultation
Management 2 1 3 6 4 5 8
Business 2 1 3 6 4 5 7
Computer/Math 4 2 5 1 3 6 7
Engineering 3 1 5 2 4 6 7
Science 2 1 4 3 6 5 7
Education 1 2 3 4 6 5 7
Health Professionals 1 2 3 X 5 4 6
Legal 1 X X X X X X

Phát hiện quan trọng:

  • Making Decisions luôn trong top 2 của mọi nghề
  • Documenting Information luôn trong top 4
  • Thinking Creatively xếp thứ 3 trong 10/13 nhóm nghề
  • Tương đồng cao giữa các nghề nghiệp khác nhau
  • ChatGPT chủ yếu hỗ trợ tìm kiếm thông tin và ra quyết định

7. Đặc Điểm Nhân Khẩu Học

Khoảng Cách Giới Tính Đã Thu Hẹp Đáng Kể

Timeline thay đổi:

  • Q4/2022 – Q1/2023: 80% người dùng có tên nam giới
  • Q2/2023: 70% nam giới, 30% nữ giới
  • Q3/2023: 65% nam giới, 35% nữ giới
  • Q4/2023: 60% nam giới, 40% nữ giới
  • Q1/2024: 56% nam giới, 44% nữ giới
  • Q2/2024: 54% nam giới, 46% nữ giới
  • Q2/2025: 48% nam giới, 52% nữ giới

Yếu tố ảnh hưởng:

  1. Marketing và PR: Chiến dịch hướng đến nữ giới
  2. Tính năng mới: Phù hợp với sở thích nữ giới
  3. Ứng dụng giáo dục: Nữ giới sử dụng nhiều hơn cho học tập
  4. Tích hợp xã hội: Chia sẻ kinh nghiệm trong cộng đồng

Phân Bố Theo Độ Tuổi

Tỷ lệ tin nhắn theo nhóm tuổi:

  • 18-25 tuổi: 46% tổng tin nhắn
  • 26-35 tuổi: 28% tổng tin nhắn
  • 36-45 tuổi: 16% tổng tin nhắn
  • 46-55 tuổi: 7% tổng tin nhắn
  • 56+ tuổi: 3% tổng tin nhắn

Tỷ lệ công việc theo tuổi:

  • Dưới 26: 23% tin nhắn công việc
  • 26-35: 35% tin nhắn công việc
  • 36-45: 42% tin nhắn công việc
  • 46-55: 45% tin nhắn công việc
  • 56-65: 38% tin nhắn công việc
  • 66+: 16% tin nhắn công việc

Tăng Trưởng Theo Quốc Gia và GDP

Phân tích GDP per capita (tháng 5/2024 vs tháng 5/2025):

GDP Decile Median GDP (USD) May 2024 May 2025 Tăng trưởng
1 (Thấp nhất) $1,200 2.1% 8.3% +296%
2 $2,800 3.2% 12.1% +278%
3 $4,500 4.1% 15.8% +285%
4 $6,200 5.3% 18.9% +257%
5 $8,100 6.8% 22.4% +229%
6 $10,500 8.2% 26.1% +218%
7 $13,800 9.1% 28.7% +215%
8 $18,200 10.3% 31.2% +203%
9 $25,600 11.8% 33.9% +187%
10 (Cao nhất) $45,200 13.2% 36.4% +176%

Phát hiện: Tăng trưởng cao nhất ở các nước thu nhập thấp-trung bình ($10,000-$40,000)


8. Phân Tích Theo Giáo Dục và Nghề Nghiệp

Giáo Dục

Tỷ lệ tin nhắn công việc theo học vấn:

  • Dưới cử nhân: 37%
  • Cử nhân: 46%
  • Sau đại học: 48%

Phân tích hồi quy (kiểm soát tuổi, giới tính, nghề nghiệp, cấp bậc, quy mô công ty, ngành):

  • Cử nhân vs Dưới cử nhân: +4.5 điểm phần trăm (p < 0.01)
  • Sau đại học vs Dưới cử nhân: +6.8 điểm phần trăm (p < 0.01)

Asking vs Doing theo học vấn:

  • Asking: Ít thay đổi theo học vấn (khoảng 49%)
  • Sau đại học: +2 điểm phần trăm Asking (p < 0.05)
  • Doing: Giảm theo học vấn
  • Sau đại học: -1.6 điểm phần trăm Doing (p < 0.10)

Nghề Nghiệp

Tỷ lệ tin nhắn công việc theo nghề:

Nghề Tỷ lệ công việc Đặc điểm chính
Computer/Math 57% Nhiều Technical Help (37%)
Management 50% Nhiều Writing (52%)
Business 50% Nhiều Writing (52%)
Engineering 48% Cân bằng Asking/Doing
Science 48% Cân bằng Asking/Doing
Other Professional 44% Đa dạng chủ đề
Non-professional 40% Ít sử dụng cho công việc

Asking vs Doing trong công việc:

  • Computer/Math: 47% Asking, 53% Doing
  • Engineering: 45% Asking, 55% Doing
  • Science: 44% Asking, 56% Doing
  • Management: 38% Asking, 62% Doing
  • Business: 35% Asking, 65% Doing
  • Non-professional: 32% Asking, 68% Doing

9. Chất Lượng Tương Tác

Xu Hướng Cải Thiện Theo Thời Gian

Tỷ lệ Good/Bad/Unknown:

  • Tháng 12/2024: Good 60%, Bad 20%, Unknown 20%
  • Tháng 7/2025: Good 80%, Bad 15%, Unknown 5%

Tỷ lệ Good/Bad:

  • Tháng 12/2024: 3:1
  • Tháng 7/2025: 5.3:1

Chất Lượng Theo Chủ Đề

Chủ đề Tỷ lệ Good/Bad Ghi chú
Self-Expression 7.0:1 Cao nhất
Practical Guidance 4.2:1 Cao
Writing 3.8:1 Trung bình cao
Seeking Information 3.5:1 Trung bình
Technical Help 2.7:1 Thấp
Multimedia 1.7:1 Thấp nhất

Chất Lượng Theo Mục Đích

Mục đích Tỷ lệ Good/Bad Ghi chú
Asking 4.5:1 Cao nhất
Doing 3.2:1 Trung bình
Expressing 2.8:1 Thấp nhất

Validation với User Feedback

Phân tích 60,000 tin nhắn có feedback trực tiếp:

  • Thumbs-up: 86% tổng feedback
  • Thumbs-down: 14% tổng feedback

Tương quan với Interaction Quality:

  • Thumbs-up + Good: 9.5 lần cao hơn Thumbs-down + Good
  • Thumbs-down: Tương đương Good và Bad
  • Unknown: Chia đều giữa thumbs-up và thumbs-down

10. Ý Nghĩa Kinh Tế và Xã Hội

Giá Trị Kinh Tế

Decision Support (Hỗ trợ Ra Quyết Định):

  • Đặc biệt quan trọng trong công việc tri thức
  • Giải thích tại sao Asking phổ biến hơn ở người có học vấn cao
  • Phù hợp với mô hình của Ide & Talamas (2025) về AI co-pilot

Consumer Surplus:

  • Collis & Brynjolfsson (2025): Ít nhất $97 tỷ/năm chỉ riêng Mỹ
  • Willingness-to-pay: $98 để từ bỏ sử dụng AI trong 1 tháng
  • Tác động ngoài công việc: Có thể lớn hơn tác động trong công việc

Đặc Điểm Độc Đáo của Generative AI

So với Web Search:

  • Khả năng tạo nội dung: Viết, code, spreadsheet, media
  • Tùy chỉnh cao: Phản hồi cá nhân hóa
  • Linh hoạt: Xử lý nhiều loại yêu cầu
  • Follow-up: Có thể tiếp tục cuộc hội thoại

Ví dụ cụ thể:

  • Web Search: “Boston Marathon qualifying times by age”
  • ChatGPT: “Tạo kế hoạch tập luyện cá nhân hóa cho marathon Boston dựa trên tuổi 35, kinh nghiệm 2 năm, mục tiêu 3:30”

Tác Động Xã Hội

Dân Chủ Hóa Tri Thức:

  • 10% dân số trưởng thành toàn cầu đã sử dụng
  • Tăng trưởng mạnh ở các nước thu nhập thấp-trung bình
  • Khoảng cách giới tính đã thu hẹp đáng kể

Giáo Dục:

  • 10.2% tin nhắn là yêu cầu dạy học
  • 36% Practical Guidance là tutoring/teaching
  • Hỗ trợ học tập suốt đời

11. Kết Luận và Triển Vọng

8 Phát Hiện Chính

  1. 70% tin nhắn không liên quan công việc (tăng từ 53%)
  2. 3 chủ đề chính chiếm 78% sử dụng: Practical Guidance, Writing, Seeking Information
  3. Writing chiếm 40% tin nhắn công việc, 2/3 là chỉnh sửa văn bản có sẵn
  4. Asking (49%) tăng nhanh hơn Doing (40%), chất lượng cao hơn
  5. Khoảng cách giới tính đã thu hẹp: 52% nữ giới hiện tại
  6. 46% tin nhắn từ người dùng 18-25 tuổi
  7. Tăng trưởng mạnh ở các nước thu nhập thấp-trung bình
  8. Người có học vấn cao sử dụng nhiều hơn cho công việc và Asking

Ý Nghĩa Kinh Tế

ChatGPT cung cấp giá trị kinh tế thông qua:

  • Decision Support: Hỗ trợ ra quyết định trong công việc tri thức
  • Consumer Surplus: Ít nhất $97 tỷ/năm chỉ riêng Mỹ
  • Tác động ngoài công việc: Có thể lớn hơn tác động trong công việc
  • Dân chủ hóa tri thức: 10% dân số trưởng thành toàn cầu

Triển Vọng Tương Lai

Với tốc độ tăng trưởng hiện tại:

  • ChatGPT sẽ tiếp tục định hình cách con người học tập, làm việc
  • AI sẽ trở thành công cụ không thể thiếu trong cuộc sống hàng ngày
  • Tác động xã hội sẽ ngày càng sâu sắc và rộng rãi

Thách thức:

  • Cần đảm bảo AI được sử dụng có trách nhiệm
  • Cân bằng giữa tự động hóa và việc làm con người
  • Giảm thiểu khoảng cách số và bất bình đẳng

Tài Liệu Tham Khảo

Nghiên cứu gốc: Aaron Chatterji (OpenAI, Duke University), Tom Cunningham (OpenAI), David Deming (Harvard University), Zoë Hitzig (OpenAI, Harvard University), Christopher Ong (OpenAI, Harvard University), Carl Shan (OpenAI), Kevin Wadman (OpenAI)

Tổ chức: OpenAI, Đại học Duke, Đại học Harvard

Nguồn chính: How People Use ChatGPT

Tài liệu tham khảo chính được sử dụng trong nghiên cứu:

Nghiên cứu kinh tế và AI:

  • Acemoglu, D. (2024). “The Simple Macroeconomics of AI.” NBER Working Paper 32487.
  • Autor, D. H., Levy, F., & Murnane, R. J. (2003). “The Skill Content of Recent Technological Change: An Empirical Exploration.” Quarterly Journal of Economics, 118(4), 1279-1333.
  • Bick, A., Blandin, A., & Deming, D. J. (2024). “The Rapid Adoption of Generative AI.” NBER Working Paper 32966.
  • Caplin, A., Deming, D. J., Leth-Petersen, S., & Weidmann, B. (2023). “Economic Decision-Making Skill Predicts Income in Two Countries.” NBER Working Paper 31674.
  • Carnehl, C., & Schneider, J. (2025). “A Quest for Knowledge.” Econometrica, 93(2), 623-659.
  • Collis, A., & Brynjolfsson, E. (2025). “AI’s Overlooked $97 Billion Contribution to the Economy.” Wall Street Journal.
  • Deming, D. J. (2021). “The Growing Importance of Decision-Making on the Job.” NBER Working Paper 28733.
  • Ide, E., & Talamas, E. (2025). “Artificial Intelligence in the Knowledge Economy.” Journal of Political Economy, 9(122).

Nghiên cứu về ChatGPT và LLM:

  • Handa, K., Tamkin, A., McCain, M., Huang, S., Durmus, E., Heck, S., Mueller, J., Hong, J., Ritchie, S., Belonax, T., Troy, K. K., Amodei, D., Kaplan, J., Clark, J., & Ganguli, D. (2025). “Which Economic Tasks are Performed with AI? Evidence from Millions of Claude Conversations.”
  • Tomlinson, K., Jaffe, S., Wang, W., Counts, S., & Suri, S. (2025). “Working with AI: Measuring the Occupational Implications of Generative AI.”
  • Zao-Sanders, M. (2025). “How People Are Really Using Gen AI in 2025.” Harvard Business Review.
  • Zhao, W., Ren, X., Hessel, J., Cardie, C., Choi, Y., & Deng, Y. (2024). “WildChat: 1M ChatGPT Interaction Logs in the Wild.”

Nghiên cứu về tác động xã hội:

  • Humlum, A., & Vestergaard, E. (2025a). “Large Language Models, Small Labor Market Effects.” University of Chicago Working Paper 2025-56.
  • Humlum, A., & Vestergaard, E. (2025b). “The Unequal Adoption of ChatGPT Exacerbates Existing Inequalities among Workers.” Proceedings of the National Academy of Sciences, 122(1), e2414972121.
  • Ling, Y., & Imas, A. (2025). “Underreporting of AI use: The role of social desirability bias.” SSRN Working Paper.

Nghiên cứu kỹ thuật và phương pháp:

  • Bengio, Y., Courville, A., & Vincent, P. (2014). “Representation Learning: A Review and New Perspectives.”
  • Chiang, W.-L., Zheng, L., Sheng, Y., Angelopoulos, A. N., Li, T., Li, D., Zhu, B., Zhang, H., Jordan, M. I., Gonzalez, J. E., & Stoica, I. (2024). “Chatbot Arena: An Open Platform for Evaluating LLMs by Human Preference.” Proceedings of ICML 2024.
  • Hendrycks, D., Burns, C., Basart, S., Zou, A., Mazeika, M., Song, D., & Steinhardt, J. (2021). “Measuring Massive Multitask Language Understanding.” Proceedings of ICLR 2021.
  • Ouyang, L., Wu, J., Jiang, X., Almeida, D., Wainwright, C. L., Mishkin, P., Zhang, C., Agarwal, S., Slama, K., Ray, A., Schulman, J., Hilton, J., Kelton, F., Miller, L., Simens, M., Askell, A., Welinder, P., Christiano, P., Leike, J., & Lowe, R. (2022). “Training Language Models to Follow Instructions with Human Feedback.”
  • Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, L., & Polosukhin, I. (2017). “Attention Is All You Need.” Advances in Neural Information Processing Systems.

Nghiên cứu về tổ chức và lao động:

  • Garicano, L. (2000). “Hierarchies and the Organization of Knowledge in Production.” Journal of Political Economy, 108(5), 874-904.
  • Garicano, L., & Rossi-Hansberg, E. (2006). “Organization and Inequality in a Knowledge Economy.” Quarterly Journal of Economics, 121(4), 1383-1435.
  • National Association of Colleges and Employers. (2024). “Competencies for a Career-Ready Workforce.”

Nghiên cứu về bình đẳng giới:

  • Hofstra, B., Kulkarni, V. V., Munoz-Najar Galvez, S., He, B., Jurafsky, D., & McFarland, D. A. (2020). “The Diversity–Innovation Paradox in Science.” Proceedings of the National Academy of Sciences, 117(17), 9284-9291.
  • West, J. D., Jacquet, J., King, M. M., Correll, S. J., & Bergstrom, C. T. (2013). “The Role of Gender in Scholarly Authorship.” PLoS ONE, 8(7), e66212.

Nguồn tin tức và báo cáo:

  • Pew Research Center. (2025). “U.S. adults’ use of ChatGPT (June 2025 report).”
  • Reuters. (2025). “OpenAI hits $12 billion in annualized revenue, The Information reports.”
  • Roth, E. (2025). “OpenAI says ChatGPT users send over 2.5 billion prompts every day.”
  • Wiggers, K. (2025). “ChatGPT Isn’t the Only Chatbot That’s Gaining Users.” TechCrunch.

Tài liệu kỹ thuật OpenAI:

  • OpenAI. (2023). “GPT-4 Technical Report.” arXiv preprint.
  • OpenAI. (2024a). “GPT-4o System Card.”
  • OpenAI. (2024b). “OpenAI o1 System Card.” System Card / Technical Report.
  • OpenAI. (2025a). “Expanding on What We Missed with Sycophancy.” Blog Post / Technical Report.
  • OpenAI. (2025b). “GPT-5 System Card.” System Card / Technical Report.
  • OpenAI. (2025c). “Privacy Policy.”

Nghiên cứu về tác động cảm xúc:

  • Phang, J., Lampe, M., Ahmad, L., Agarwal, S., Fang, C. M., Liu, A. R., Danry, V., Lee, E., Chan, S. W. T., Pataranutaporn, P., & Maes, P. (2025). “Investigating Affective Use and Emotional Well-being on ChatGPT.”

Nghiên cứu về công bằng:

  • Eloundou, T., Beutel, A., Robinson, D. G., Gu, K., Brakman, A.-L., Mishkin, P., Shah, M., Heidecke, J., Weng, L., & Kalai, A. T. (2025). “First-Person Fairness in Chatbots.” Proceedings of ICLR 2024.

Nghiên cứu về rủi ro AI:

  • Korinek, A., & Suh, D. (2024). “Scenarios for the Transition to AI.” NBER Working Paper 32255.
  • Kulveit, J., Douglas, R., Ammann, N., Turan, D., Krueger, D., & Duvenaud, D. (2025). “Gradual Disempowerment: Systemic Existential Risks from Incremental AI Development.”

Nghiên cứu về tác động lao động:

  • Hartley, J., Jolevski, F., Melo, V., & Moore, B. (2025). “The Labor Market Effects of Generative Artificial Intelligence.” SSRN Working Paper.

Nghiên cứu về dữ liệu xã hội:

  • Chetty, R., Jackson, M. O., Kuchler, T., Stroebel, J., Hendren, N., Fluegge, R. B., Gong, S., Gonzalez, F., Grondin, A., Jacob, M., Johnston, D., Koenen, M., Laguna-Muggenburg, E., Mudekereza, F., Rutter, T., Thor, N., Townsend, W., Zhang, R., Bailey, M., Barberá, P., Bhole, M., & Wernerfelt, N. (2022). “Social Capital I: Measurement and Associations with Economic Mobility.” Nature, 608(7923), 108-121.

Nghiên cứu kỹ thuật bổ sung:

  • Lambert, N., Morrison, J., Pyatkin, V., Huang, S., Ivison, H., Brahman, F., Miranda, L. J. V., Liu, A., Dziri, N., Lyu, S., et al. (2024). “Tulu 3: Pushing frontiers in open language model post-training.” arXiv preprint.
  • Liu, N. F., Lin, K., Hewitt, J., Paranjape, A., Bevilacqua, M., Petroni, F., & Liang, P. (2023). “Lost in the Middle: How Language Models Use Long Contexts.”

Bài viết này cung cấp tóm tắt toàn diện về nghiên cứu “How People Use ChatGPT” – một trong những nghiên cứu quan trọng nhất về việc sử dụng AI trong thực tế. Nghiên cứu không chỉ cung cấp dữ liệu quan trọng về hiện tại mà còn mở ra những câu hỏi thú vị về tương lai của AI trong cuộc sống con người.

Installing and Using GPT-OSS 20B Locally with Ollama

In this document, we will explore how to install and run GPT-OSS 20B — a powerful open-weight language model released by OpenAI — locally, with detailed instructions for using it on a Tesla P40 GPU.

1. Quick Introduction to GPT-OSS 20B

  • GPT-OSS 20B is an open-weight language model from OpenAI, released in August 2025—the first since GPT-2—under the Apache 2.0 license, allowing free download, execution, and modification.

  • The model has about 21 billion parameters and can run efficiently on consumer machines with at least 16 GB of RAM or GPU VRAM.

  • GPT-OSS 20B uses a Mixture-of-Experts (MoE) architecture, activating only a subset of parameters (~3.6B) at each step, saving resources and energy.

  • The model supports chain-of-thought reasoning, enabling it to understand and explain reasoning processes step by step.


2. Hardware & Software Preparation

Hardware requirements:

  • RAM or VRAM: minimum 16 GB (can be system RAM or GPU VRAM).

  • Storage: around 12–20 GB for the model and data.

  • Operating system: macOS 11+, Windows, or Ubuntu are supported.

  • GPU (if available): Nvidia or AMD for acceleration. Without a GPU, the model still runs on CPU but very slowly.

Software options:

  • Ollama: the simplest method; quick installation with a convenient CLI.

  • LM Studio: a graphical interface, suitable for beginners.

  • Transformers + vLLM (Python): flexible for developers, integrates well into open-source pipelines.


3. How to Run GPT-OSS 20B with Ollama (GPU Tesla P40)

3.1 Goal and Timeline

  • Goal: successfully run GPT-OSS 20B locally using Ollama, leveraging the Tesla P40 GPU (24GB VRAM).

  • Timeline: the first setup takes about 15–20 minutes to download the model. After that, launching the model takes only a few seconds.

3.2 Environment Preparation

  • GPU: Tesla P40 with 24GB VRAM, sufficient for GPT-OSS 20B.

  • NVIDIA Driver: version 525 or higher recommended. In the sample logs, CUDA 12.0 works fine.

  • RAM: minimum 16GB.

  • Storage: at least 20GB free space; the model itself takes ~13GB plus cache.

  • Operating system: Linux (Ubuntu), macOS, or Windows. The following example uses Ubuntu.

3.3 Install Ollama

The fastest way:

curl -fsSL https://ollama.com/install.sh | sh

Or manually (Linux):

curl -LO https://ollama.com/download/ollama-linux-amd64.tgz
sudo tar -C /usr -xzf ollama-linux-amd64.tgz

Start the Ollama service:

OLLAMA_HOST=0.0.0.0:8888 ollama serve

When the log shows listening on [::]:8888, the server is ready.

3.4 Download GPT-OSS 20B

Open a new terminal and run:

OLLAMA_HOST=0.0.0.0:8888 ollama pull gpt-oss:20b

The first download is about 13GB. When the log shows success, the model is ready.

3.5 Run the Model

Start the model and try chatting:

OLLAMA_HOST=0.0.0.0:8888 ollama run gpt-oss:20b

Example:

>>> hi
Hello! 👋 How can I help you today?

3.6 Verify GPU Usage

Run:

nvidia-smi

Result: the Tesla P40 (24GB) consumes around 12–13GB VRAM for the process /usr/bin/ollama. The Ollama log also shows “offloading output layer to GPU” and “llama runner started in 8.05 seconds”, proving the model is running on GPU, not CPU.

3.7 Monitor API and Performance

Ollama exposes a REST API at http://127.0.0.1:8888.
Common endpoints include /api/chat and /api/generate.

Response times:

  • Short prompts: about 2–10 seconds.

  • Long or complex prompts: may take tens of seconds to a few minutes.


4. Conclusion

You have successfully run GPT-OSS 20B on a Tesla P40. The initial model download takes some time, but afterward it launches quickly and runs stably. With 24GB VRAM, the GPU can handle the large model without overload. While long prompts may still be slow, it is fully usable for real-world experiments and local project integration.

GPT-5: A Quantum Leap in Artificial Intelligence

OpenAI officially launched GPT-5, the most advanced model in its history. This wasn’t just a routine upgrade—it represented a bold leap toward a unified AI system capable of adapting seamlessly between fast, lightweight responses and deep, expert-level reasoning. With GPT-5, OpenAI introduced a model that could dynamically route between different reasoning modes, process multimodal inputs, and deliver results that rival (or even surpass) human experts in areas like coding, healthcare, mathematics, and complex reasoning.

1. From GPT-1 to GPT-5: The Rise of Smarter, Safer, and More Human AI

When OpenAI introduced GPT-1 in 2018, it was a relatively small model with 117 million parameters, capable only of handling basic natural language tasks. Yet, it planted the seed for what would later become a technological revolution.

In 2019, GPT-2 took a giant leap forward. With 1.5 billion parameters, it could generate surprisingly coherent and contextually relevant text. At that time, the public release was even delayed due to concerns over misuse—a sign of how powerful it was compared to what existed before.

Evolution of GPT Models

Then came GPT-3 (2020) with 175 billion parameters. This version made AI accessible to the world. From writing essays, generating code, to assisting in creative tasks, GPT-3 became the first version that truly entered daily workflows. It also laid the foundation for the rise of ChatGPT, which quickly became a household name.

By 2023, GPT-4 introduced multimodal capabilities—understanding not just text but also images, and later, even audio. This turned ChatGPT into a versatile tool: analyzing documents, describing pictures, and holding voice conversations. GPT-4 became the standard for AI in business, education, and creative industries.

In August 2025, OpenAI unveiled GPT-5, marking the next big chapter in this evolution. This wasn’t just a routine upgrade—it represented a bold leap toward a unified AI system capable of adapting seamlessly between fast, lightweight responses and deep, expert-level reasoning.

With GPT-5, OpenAI introduced a model that could dynamically route between different reasoning modes, process multimodal inputs, and deliver results that rival (or even surpass) human experts in areas like coding, healthcare, mathematics, and complex reasoning.

Unlike earlier generations where users had to choose between models (e.g., GPT-4 Turbo, GPT-4o, etc.), GPT-5 introduces a unified architecture:

  • Fast, efficient models for everyday, lightweight tasks.

  • Deep reasoning “thinking” models for complex queries requiring logical, multi-step analysis.

  • A real-time router that automatically determines which model (and reasoning mode) to invoke, based on query complexity, user intent, and even explicit instructions in the prompt like “think deeply about this.”

The user no longer has to make the choice—the model adapts dynamically, delivering both speed and quality without sacrificing one for the other.

GPT-5 handles more than just text. It processes images, code, structured data, and in some cases audio and video, depending on the platform and API integration. Early reports indicate GPT-5 can work with extremely large context windows—up to 1 million tokens—allowing it to analyze entire books, long meeting transcripts, or massive codebases in one go.

This makes GPT-5 especially valuable in fields that rely on long-form reasoning: research, law, education, and enterprise knowledge management.

2. Key Performance Gains

2.1. Coding and Software Development

GPT-5 achieves state-of-the-art results in software development tasks. It not only writes accurate code but also explains design decisions, reviews existing codebases, and suggests improvements. With larger context windows, developers can now feed entire repositories for refactoring or bug-fixing at once. This drastically reduces development cycles.

GPT-5 sets new records across programming tasks:

  • 74.9% on SWE-Bench Verified (up from GPT-4’s ~49%).

  • 88% on Aider Polyglot multi-language coding benchmark.

Developers using tools like Cursor, Windsurf, and Vercel AI SDK report GPT-5 is more “intuitive, coachable, and reliable” in generating, refactoring, and debugging code.

Developers now have more fine-grained control over outputs with new API parameters:

  • verbosity (low, medium, high) – adjust response length and detail

  • reasoning_effort (minimal, low, medium, high) – choose between deep reasoning or faster execution

Additionally, GPT-5 introduces custom tools that accept plain-text input instead of JSON and supports context-free grammar (CFG) constraints for structured outputs.

GPT-5 comes in multiple sizes via API—gpt-5, gpt-5-mini, and gpt-5-nano—allowing developers to balance performance, cost, and latency. There’s also a gpt-5-chat-latest variant (without reasoning) available in both ChatGPT and the API.

Compared to prior models, GPT-5 is more reliable in developer environments. It makes fewer errors, communicates its capabilities more honestly, and produces safer, more useful outputs.

2.2. Enterprise Integration

In enterprises, GPT-5 can summarize thousands of documents, generate compliance reports, or extract insights from structured and unstructured data. Early adopters report that tasks which took hours of manual effort can now be completed in minutes, enabling employees to focus on higher-value work.

Large organizations—including Amgen, BNY, California State University, Figma, Intercom, Lowe’s, Morgan Stanley, SoftBank, and T-Mobile—are integrating GPT-5 into workflows. The model helps reduce bottlenecks, automate repetitive knowledge tasks, and enable rapid analysis across documents, datasets, and customer interactions.

GPT-5 powers conversational agents that handle millions of customer queries with higher accuracy and empathy. It adapts tone based on context, offering professional responses for business and more casual ones for retail or lifestyle brands. Companies using GPT-5 in customer support have reported reduced ticket backlog and improved satisfaction scores.

2.3. Reduced Hallucinations

One of the biggest leaps is GPT-5’s dramatic reduction in hallucinations. Compared to GPT-4, the model is far less likely to invent citations, fabricate data, or misinterpret instructions.

Instead of flat refusals for sensitive queries, GPT-5 provides “safe completions”: careful, measured answers that maintain compliance without leaving the user frustrated.

2.4. Personalized Interaction

GPT-5 offers multiple interaction “modes”:

  • Fast — lightweight, quick responses.

  • Thinking — deliberate, structured, multi-step reasoning.

  • Pro — research-oriented responses at near-expert level.

In ChatGPT, OpenAI even added personalities like “Cynic,” “Listener,” and “Nerd,” allowing the model to engage in different tones and styles depending on the user’s preference.

2.5. Pricing and Access

  • Free users: GPT-5 is available with usage limits.

  • ChatGPT Plus ($20/month): expanded usage, including access to the reasoning modes.

  • ChatGPT Pro ($200/month): unlimited access to GPT-5 Pro, designed for heavy workloads like enterprise analytics, R&D, and coding at scale.

This tiered system allows accessibility for casual users while scaling to professional and enterprise needs.


3. Real-World Applications

3.1. Education and Research

GPT-5 introduces a “Study Mode” that helps students and educators plan lessons, explain complex concepts, and generate research outlines. Its expanded context window allows it to analyze large syllabi, research papers, or even historical archives in a single conversation.

It’s no exaggeration to say GPT-5 could become a “personal tutor at scale.”

3.2. Agentic Tasks

The model is designed for agent-like behavior: it can manage email, interact with Google Calendar, or execute workflows by connecting with external tools. Platforms like Botpress have already integrated GPT-5 to enable no-code AI agent creation, allowing businesses to deploy assistants without technical expertise.

3.3. Healthcare

On medical and scientific tasks, GPT-5 demonstrates expert-level reasoning. It can read radiology scans, summarize clinical guidelines, and even assist in drug discovery by analyzing molecular data. Compared to earlier models, GPT-5 shows fewer critical errors, making it more reliable as a decision-support system.

On medical benchmarks like MedQA, MedXpertQA, USMLE, and VQA-RAD, GPT-5 outperforms human experts and earlier models. It can analyze radiology images, provide diagnostic reasoning, and summarize clinical guidelines—all while adhering to strict safety and compliance protocols.

For the first time, an AI system is showing signs of being a trustworthy medical co-pilot.

4. Market Feedback

The launch of GPT-5 received significant attention across industries. While many praised its performance in technical benchmarks and enterprise adoption, some users noted that the model initially felt more “robotic” and less personable compared to GPT-4o. This created mixed impressions during the first weeks after release.

Among developers, GPT-5 was widely embraced thanks to its larger context window, reduced hallucinations, and flexible reasoning modes. Many open-source projects and AI startups quickly integrated it into workflows, citing massive productivity gains. However, some developers raised concerns about increased API costs when using higher reasoning levels.

Enterprises have been particularly positive, with companies like Microsoft and Oracle integrating GPT-5 into their flagship products. Reports indicate that customer support efficiency improved, compliance reporting became faster, and analytics workloads were streamlined. For many organizations, GPT-5 is now seen as a strategic investment in AI transformation.

For everyday users, GPT-5 was received with both excitement and skepticism. Many appreciated the deeper reasoning in education, coding help, and creative writing. Still, some preferred GPT-4o’s warmth and conversational style, pushing OpenAI to update GPT-5 with improved “human-like” interaction over time.

4.1. Positive Reception

  • Expert-level reasoning: Sam Altman described GPT-5 as “PhD-level expert intelligence.

  • Smooth UX: Reviewers compare GPT-5’s unified routing to the iPhone’s Retina display moment—a breakthrough that users didn’t know they needed until they experienced it.

4.2. Constructive Criticism

  • Some users feel GPT-5 lacks warmth and personality compared to GPT-4o, which had more conversational charm.

  • Others argue it’s an incremental upgrade rather than a radical breakthrough in creativity—especially in literature and artistic writing, where rivals like Anthropic’s Claude 4 show more flair.

  • The rollout faced hiccups: early bugs, occasional routing failures, and inconsistent access for some users created frustration.

5. The Road Ahead

GPT-5 is not the end, but a milestone. OpenAI has already signaled that work on GPT-6 and other specialized models is underway. The focus will likely be on deeper reasoning, multimodal integration across video, audio, and sensor data, and even more robust safeguards for safety and alignment.

For all its raw power, GPT-5 still struggles with emotional tone and creativity. Users want AI that feels alive and empathetic, not just efficient. The future may lie in combining reasoning with emotional intelligence.

Currently, GPT-5 does not “learn in real-time.” Updating its knowledge requires retraining, limiting its ability to adapt instantly. The next frontier for AGI will be continuous, safe online learning.

OpenAI faces rivals like Anthropic’s Claude 4, xAI’s Grok 4 Heavy, and Google DeepMind’s Gemini Ultra. To stay ahead, GPT-5 must balance cost, speed, creativity, and safety while expanding real-world impact.

6. Conclusion

GPT-5 isn’t just another model—it’s a system: fast when needed, deeply analytical when required, and adaptive across tasks from coding to healthcare. It marks OpenAI’s boldest move yet toward AGI.

But technology alone won’t decide GPT-5’s success. The real test lies in whether users feel trust, warmth, and creativity in their interactions. For AI to truly integrate into daily life, it must not only think like an expert but also connect like a human.

In the coming months and years, GPT-5 may well become the invisible engine powering education, business, and healthcare. And if OpenAI succeeds in blending intelligence with empathy, GPT-5 could be remembered as the moment AI became not just useful—but indispensable.