Back to MCP Integrations

Fabric MCP

MCP integration for Fabric MCP within. Connect external services and extend Claude's capabilities.

0 installsAuthor: Community

Installation

curl -fsSL https://claudekit.xyz/i/fabric-mcp | bash

Description

Комплексный Python-based MCP сервер для работы с Microsoft Fabric API, с продвинутыми возможностями разработки, тестирования и оптимизации PySpark ноутбуков с интеграцией LLM.

Установка

Из исходников

git clone https://github.com/your-repo/fabric-mcp.git
cd fabric-mcp
uv sync
pip install -r requirements.txt

MCP Inspector

uv run --with mcp mcp dev fabric_mcp.py

HTTP сервер

uv run python .\fabric_mcp.py --port 8081

Конфигурация

VSCode STDIO интеграция

{
    "mcp": {
        "servers": {
            "ms-fabric-mcp": {
                "type": "stdio",
                "command": "<FullPathToProjectFolder>\\.venv\\Scripts\\python.exe",
                "args": ["<FullPathToProjectFolder>\\fabric_mcp.py"]
            }
        }
    }
}

VSCode HTTP интеграция

{
    "mcp": {
        "servers": {
            "ms-fabric-mcp": {
                "type": "http",
                "url": "http://<localhost or remote IP>:8081/mcp/",
                "headers": {
                    "Accept": "application/json,text/event-stream"
                }
            }
        }
    }
}

Доступные инструменты

ИнструментОписание
list_workspacesПоказать все доступные Fabric рабочие пространства
set_workspaceУстановить текущий контекст рабочего пространства для сессии
list_lakehousesПоказать все lakehouse в рабочем пространстве
create_lakehouseСоздать новый lakehouse
set_lakehouseУстановить текущий контекст lakehouse
list_warehousesПоказать все хранилища в рабочем пространстве
create_warehouseСоздать новое хранилище
set_warehouseУстановить текущий контекст хранилища
list_tablesПоказать все таблицы в lakehouse
get_lakehouse_table_schemaПолучить схему для конкретной таблицы
get_all_lakehouse_schemasПолучить схемы для всех таблиц в lakehouse
set_tableУстановить текущий контекст таблицы
get_sql_endpointПолучить SQL endpoint для lakehouse или хранилища
run_queryВыполнить SQL запросы
load_data_from_urlЗагрузить данные из URL в таблицы

Возможности

  • Управление рабочими пространствами, lakehouse, хранилищами и таблицами
  • Получение схем и метаданных Delta таблиц
  • Выполнение SQL запросов и загрузка данных
  • Операции с отчетами и семантическими моделями
  • Интеллектуальное создание ноутбуков с 6 специализированными шаблонами
  • Умная генерация кода для типовых PySpark операций
  • Комплексная валидация с проверкой синтаксиса и лучших практик
  • Fabric-специфичные оптимизации и проверки совместимости
  • Анализ производительности с оценкой и рекомендациями по оптимизации
  • Мониторинг в реальном времени и аналитика выполнения

Примеры использования

List all my Fabric workspaces
Create a PySpark notebook that reads sales data, cleans it, and optimizes performance
My PySpark notebook is slow. Help me optimize it.

Ресурсы

Примечания

Требует Azure аутентификацию (az login --scope https://api.fabric.microsoft.com/.default). Включает 6 специализированных PySpark шаблонов: basic, etl, analytics, ml, fabric_integration и streaming. Предоставляет оценку производительности (0-100) и детальные рекомендации по оптимизации. Поддерживает как STDIO, так и HTTP режимы коммуникации.