Skip to content

lili2323art/code-evolution-lab

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

4 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

🧬 代码进化实验室

让 AI 自己进化代码 | 完全本地运行 | 支持多设备分布式

License: MIT Python 3.8+ MLX

🎯 项目简介

代码进化实验室是一个基于 MLX 的 AI 驱动代码优化系统,可以让 AI 自动生成、测试、优化代码。

核心特性

  • 🤖 真实本地 AI - 使用 Apple MLX 框架,运行在 Apple Silicon GPU
  • 🌐 多设备分布式 - 支持从单设备到多设备的灵活扩展
  • 🎭 三种运行模式 - 模拟、单设备、多设备分布式
  • 🚀 零成本使用 - 完全本地运行,无需云端 API
  • 📊 实时可视化 - 赛博朋克风格的 Web 界面
  • 🔒 隐私保护 - 所有计算都在你的设备上

🚀 快速开始

环境要求

  • macOS with Apple Silicon (M1/M2/M3)
  • Python 3.8+
  • 8GB+ RAM

安装

# 克隆仓库
git clone https://github.com/yourusername/code-evolution-lab.git
cd code-evolution-lab

# 安装依赖
pip install mlx mlx-lm flask

# 启动 Web 界面
python app.py

访问 http://localhost:5001

🎮 使用方式

模式 1:模拟模式(快速演示)

最简单的方式,无需配置:

python app.py
  • ⚡ 速度:5-10秒
  • 🎯 适合:快速演示、功能测试

模式 2:单设备 MLX(真实 AI)

使用本地 AI 进行真实代码生成:

# 启动 Worker
python mlx_worker.py

# 在 Web 界面选择 "MLX 单设备" 模式
  • 🤖 速度:1-2分钟/代
  • 🎯 适合:个人使用、真实优化

模式 3:多设备分布式(高性能)

使用多台 Mac 组成分布式网络:

# 在每台 Worker 设备上
python3 mlx_worker.py

# 在主机上,Web 界面选择 "多设备分布式" 模式
# 输入 Worker 地址,点击开始进化
  • 🌐 速度:线性提升(2 设备 = 2x,3 设备 = 3x)
  • 🎯 适合:高性能需求、团队协作

📊 性能对比

配置 每代耗时 10 代总时间 速度提升
模拟模式 1 秒 10 秒 -
单设备 MLX 120 秒 20 分钟 1x
2 设备分布式 60 秒 10 分钟 2x
3 设备分布式 40 秒 6.7 分钟 3x
4 设备分布式 30 秒 5 分钟 4x

🌟 核心功能

1. 自动代码进化

AI 自动生成代码变体,测试性能,选择最优版本:

# 初始代码(冒泡排序)
Generation 0: 0.033s (baseline)

# AI 自动优化
Generation 5: 0.018s (↓45% - 插入排序)
Generation 10: 0.002s (↓94% - 快速排序)

2. 多设备协作

动态添加/移除设备,无需重启:

  • ✅ 运行时添加新设备
  • ✅ 自动检测和负载均衡
  • ✅ Worker 失败自动恢复
  • ✅ 实时监控和统计

3. Web 界面

赛博朋克风格的可视化界面:

  • 📈 实时进化过程
  • 📊 性能统计图表
  • 👥 Worker 管理器
  • 🔍 状态监控

🏗️ 架构

Web 界面 (index.html)
    ↓
Flask 后端 (app.py)
    ↓
进化引擎选择
    ├─ 模拟模式 (evolution_engine.py)
    ├─ 单设备 MLX (evolution_engine_mlx_direct.py)
    └─ 多设备分布式 (evolution_engine_auto_scale.py)
        ↓
    MLX Workers (mlx_worker.py)
        ↓
    Apple Silicon GPU

📁 项目结构

code-evolution-lab/
├── app.py                              # Flask 后端
├── index.html                          # Web 前端
├── worker_manager.html                 # Worker 管理器
├── evolution_engine.py                 # 模拟模式引擎
├── evolution_engine_mlx_direct.py      # 单设备 MLX 引擎
├── evolution_engine_auto_scale.py      # 多设备分布式引擎
├── mlx_worker.py                       # Worker 服务
├── code_executor.py                    # 代码执行器
└── README.md                           # 本文件

🎬 演示

单设备演示

# 1. 启动 Worker
python mlx_worker.py

# 2. 启动 Web 界面
python app.py

# 3. 访问 http://localhost:5001
# 4. 选择 "MLX 单设备" 模式
# 5. 点击 "开始进化"

多设备演示

# 在设备 1(主机)
python app.py

# 在设备 2(Worker)
python3 mlx_worker.py

# 在设备 3(Worker)
python3 mlx_worker.py

# 在 Web 界面:
# 1. 选择 "多设备分布式" 模式
# 2. 输入 Worker 地址
# 3. 点击 "检测 Worker"
# 4. 点击 "开始进化"

💡 核心价值

对比云端 API

方案 成本 隐私 速度 限制
云端 API 💰 $30/月 ❌ 低 ⚡ 快 有限制
本地 MLX ✅ $0 ✅ 高 ⚡ 快 无限制

独特优势

  1. 零成本迭代 - 无限次优化尝试
  2. 完全本地 - 隐私保护 + 自主控制
  3. 灵活扩展 - 从 1 台到 N 台设备
  4. 真实创造 - AI 自己发现优化路径

🔧 高级功能

Worker 管理

# 实时监控 Worker
python worker_manager.py

# 或在 Web 界面点击 "Worker 管理"

自定义配置

# 配置 Worker 地址
worker_urls = [
    "http://192.168.1.101:8001",
    "http://192.168.1.102:8001",
]

# 创建分布式引擎
from evolution_engine_auto_scale import EvolutionEngineAutoScale
engine = EvolutionEngineAutoScale(worker_urls)

# 运行进化
result = engine.evolve(code, generations=20)

📖 文档

🤝 贡献

欢迎贡献代码、报告问题或提出建议!

  1. Fork 本仓库
  2. 创建特性分支 (git checkout -b feature/AmazingFeature)
  3. 提交更改 (git commit -m 'Add some AmazingFeature')
  4. 推送到分支 (git push origin feature/AmazingFeature)
  5. 开启 Pull Request

📄 许可证

本项目采用 MIT 许可证 - 查看 LICENSE 文件了解详情

🙏 致谢

  • MLX - Apple 的机器学习框架
  • MLX LM - MLX 语言模型
  • Flask - Web 框架

📞 联系方式


在完全属于自己的算力环境下,让 AI 自己进化代码! 🚀

About

🧬 Let algorithms evolve themselves | Powered by Parallax

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors