Skip to main content
Glama

BCI-MCP Server

by enkhbold470

带有模型上下文协议的脑机接口(BCI-MCP)

该项目将脑机接口 (BCI) 技术与模型上下文协议 (MCP) 相结合,为神经信号采集、处理和人工智能交互创建一个强大的框架。

概述

BCI-MCP 结合了:

  • 脑机接口(BCI) :实时采集和处理神经信号
  • 模型上下文协议(MCP) :标准化AI通信接口

这种集成使得医疗保健、无障碍、研究和人机交互等领域的高级应用成为可能。

主要特点

BCI 核心功能

  • 神经信号采集:实时捕捉大脑活动的电信号
  • 信号处理:预处理、提取特征和分类脑信号
  • 命令生成:将解释的脑信号转换为命令
  • 反馈机制:提供反馈以帮助用户提高控制
  • 实时操作:以最小延迟处理大脑活动

MCP 集成功能

  • 标准化上下文共享:使用 MCP 将 BCI 数据与 AI 模型连接起来
  • 工具曝光:让 BCI 功能可用于 AI 应用程序
  • 可组合工作流程:构建结合 BCI 信号和 AI 处理的复杂操作
  • 安全数据交换:实现隐私保护的神经数据传输

系统架构

BCI-MCP系统由几个关键组件组成:

┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐ │ │ │ │ │ │ │ BCI Hardware │──────│ BCI Software │──────│ MCP Server │ │ │ │ │ │ │ └─────────────────┘ └─────────────────┘ └────────┬────────┘ │ │ ┌────────▼────────┐ │ │ │ AI Applications │ │ │ └─────────────────┘

入门

先决条件

  • Python 3.10+
  • 兼容的EEG硬件(或使用模拟模式进行测试)
  • requirements.txt 中列出的其他依赖项

安装

# Clone the repository git clone https://github.com/enkhbold470/bci-mcp.git cd bci-mcp # Create a virtual environment python -m venv venv source venv/bin/activate # On Windows: venv\Scripts\activate # Install dependencies pip install -r requirements.txt

使用 Docker

为了更容易设置,您可以使用 Docker:

# Build and start all services docker-compose up -d # Access the documentation at http://localhost:8000 # The MCP server will be available at ws://localhost:8765

基本用法

# Start the MCP server python src/main.py --server # Or use the interactive console python src/main.py --interactive # List available EEG devices python src/main.py --list-ports # Record a 60-second BCI session python src/main.py --port /dev/tty.usbmodem1101 --record 60

高级应用程序

BCI-MCP 集成支持一系列尖端应用:

医疗保健和无障碍

  • 辅助技术:使行动不便人士能够控制设备
  • 康复:通过实时反馈支持神经康复
  • 诊断工具:辅助诊断神经系统疾病

研究与开发

  • 神经科学研究:促进大脑功能和认知的研究
  • BCI 训练:加速学习和适应 BCI 控制
  • 协议开发:建立神经数据交换标准

人工智能增强界面

  • 自适应界面:根据神经信号和人工智能辅助进行调整的界面
  • 意图识别:通过神经信号更好地理解用户意图
  • 增强沟通:增强言语障碍人士的沟通能力

文档

项目文档托管在 GitHub Pages 上: https://enkhbold470.github.io/bci-mcp/

维护文档

本文档使用 MkDocs 和 Material 主题构建。更新文档:

  1. main分支上docs/目录中的 Markdown 文件进行更改
  2. 提交并将更改推送到main分支
  3. GitHub Actions 工作流程将自动构建更新的文档并将其部署到 GitHub Pages

本地文档开发

要在本地使用文档:

  1. 安装所需的依赖项:
    pip install mkdocs-material mkdocstrings mkdocstrings-python
  2. 运行本地服务器:
    mkdocs serve
  3. 查看文档: http://localhost:8000

项目结构

. ├── docs/ # Documentation files │ ├── api/ # API Documentation │ ├── features/ # Feature Documentation │ ├── getting-started/ # Getting Started Guides │ └── index.md # Documentation Home Page ├── mkdocs.yml # MkDocs Configuration └── .github/workflows/ # GitHub Actions Workflows

贡献

欢迎贡献代码!欢迎提交 Pull 请求。

  1. 分叉存储库
  2. 创建功能分支( git checkout -b feature/amazing-feature
  3. 提交您的更改( git commit -m 'Add some amazing feature'
  4. 推送到分支( git push origin feature/amazing-feature
  5. 打开拉取请求

执照

该项目根据 MIT 许可证获得许可 - 有关详细信息,请参阅 LICENSE 文件。

致谢

接触

Enkhbold Ganbold - GitHub 个人资料

项目链接: https://github.com/enkhbold470/bci-mcp

-
security - not tested
F
license - not found
-
quality - not tested

hybrid server

The server is able to function both locally and remotely, depending on the configuration or use case.

该框架将脑机接口技术与模型上下文协议相结合,实现实时神经信号处理和人工智能交互,用于医疗保健、无障碍和研究应用。

  1. 概述
    1. 主要特点
      1. BCI 核心功能
      2. MCP 集成功能
    2. 系统架构
      1. 入门
        1. 先决条件
        2. 安装
        3. 使用 Docker
        4. 基本用法
      2. 高级应用程序
        1. 医疗保健和无障碍
        2. 研究与开发
        3. 人工智能增强界面
      3. 文档
        1. 维护文档
        2. 本地文档开发
      4. 项目结构
        1. 贡献
          1. 执照
            1. 致谢
              1. 接触

                Related MCP Servers

                • -
                  security
                  F
                  license
                  -
                  quality
                  Facilitates interaction and context sharing between AI models using the standardized Model Context Protocol (MCP) with features like interoperability, scalability, security, and flexibility across diverse AI systems.
                  Last updated -
                  1
                  Python
                • -
                  security
                  A
                  license
                  -
                  quality
                  A Model Context Protocol server that provides health data from the Senechal API to LLM applications, enabling AI assistants to access, analyze, and respond to personal health information.
                  Last updated -
                  Python
                  GPL 3.0
                  • Linux
                  • Apple
                • -
                  security
                  A
                  license
                  -
                  quality
                  A Model Context Protocol server that enables AI assistants like Claude to interact directly with Home Assistant, allowing them to query device states, control smart home entities, and perform automation tasks.
                  Last updated -
                  104
                  Python
                  MIT License
                  • Apple
                  • Linux
                • -
                  security
                  A
                  license
                  -
                  quality
                  A Model Context Protocol server that allows AI assistants to interact with the Neuro-Symbolic Autonomy Framework, enabling capabilities like running NSAF evolution with customizable parameters and comparing different agent architectures.
                  Last updated -
                  Python
                  MIT License
                  • Apple

                View all related MCP servers

                MCP directory API

                We provide all the information about MCP servers via our MCP API.

                curl -X GET 'https://glama.ai/api/mcp/v1/servers/enkhbold470/bci-mcp'

                If you have feedback or need assistance with the MCP directory API, please join our Discord server