Quality Control
Attention checks, gold standards, और inter-annotator agreement metrics।
Quality Control
Potato उच्च-गुणवत्ता वाले annotations सुनिश्चित करने के लिए व्यापक quality control features प्रदान करता है। इसमें attention checks, gold standards, pre-annotation support, और real-time agreement metrics शामिल हैं।
अवलोकन
Potato में Quality control चार प्रमुख features से मिलकर बनती है:
- Attention Checks - ज्ञात-उत्तर वाले items के साथ annotator engagement सत्यापित करें
- Gold Standards - Expert-labeled items के विरुद्ध accuracy ट्रैक करें
- Pre-annotation Support - Model predictions के साथ forms pre-fill करें
- Agreement Metrics - Real-time में inter-annotator agreement calculate करें
Attention Checks
Attention checks ज्ञात सही उत्तरों वाले items हैं जो verify करते हैं कि annotators ध्यान दे रहे हैं और यादृच्छिक रूप से click नहीं कर रहे।
कॉन्फ़िगरेशन
attention_checks:
enabled: true
items_file: "attention_checks.json"
# How often to inject attention checks
frequency: 10 # Insert one every 10 items
# OR
probability: 0.1 # 10% chance per item
# Optional: flag suspiciously fast responses
min_response_time: 3.0 # Flag if answered in < 3 seconds
# Failure handling
failure_handling:
warn_threshold: 2 # Show warning after 2 failures
warn_message: "Please read items carefully before answering."
block_threshold: 5 # Block user after 5 failures
block_message: "You have been blocked due to too many incorrect responses."Attention Check Items File
[
{
"id": "attn_001",
"text": "Please select 'Positive' for this item to verify you are reading carefully.",
"expected_answer": {
"sentiment": "positive"
}
}
]Gold Standards
Gold standards expert-labeled items हैं जिनका उपयोग annotator accuracy मापने के लिए किया जाता है। Default रूप से, gold standards silent होते हैं - results admin review के लिए दर्ज किए जाते हैं, लेकिन annotators को feedback नहीं दिखाया जाता।
कॉन्फ़िगरेशन
gold_standards:
enabled: true
items_file: "gold_standards.json"
# How to use gold standards
mode: "mixed" # Options: training, mixed, separate
frequency: 20 # Insert one every 20 items
# Accuracy requirements
accuracy:
min_threshold: 0.7 # Minimum required accuracy (70%)
evaluation_count: 10 # Evaluate after this many gold items
# Feedback settings (disabled by default)
feedback:
show_correct_answer: false
show_explanation: false
# Auto-promotion from high-agreement items
auto_promote:
enabled: true
min_annotators: 3
agreement_threshold: 1.0 # 1.0 = unanimousGold Standard Items File
[
{
"id": "gold_001",
"text": "The service was absolutely terrible and I will never return.",
"gold_label": {
"sentiment": "negative"
},
"explanation": "Strong negative language clearly indicates negative sentiment.",
"difficulty": "easy"
}
]Auto-Promotion
जब कई annotators सहमत होते हैं तो items स्वचालित रूप से gold standards बन सकते हैं:
gold_standards:
auto_promote:
enabled: true
min_annotators: 3 # Wait for at least 3 annotators
agreement_threshold: 1.0 # 100% must agree (unanimous)Pre-annotation Support
Pre-annotation आपको annotation forms को model predictions के साथ pre-fill करने की अनुमति देता है, active learning और correction workflows के लिए उपयोगी।
कॉन्फ़िगरेशन
pre_annotation:
enabled: true
field: "predictions" # Field in data containing predictions
allow_modification: true # Can annotators change pre-filled values?
show_confidence: true
highlight_low_confidence: 0.7Data Format
अपने data items में predictions शामिल करें:
{
"id": "item_001",
"text": "I love this product!",
"predictions": {
"sentiment": "positive",
"confidence": 0.92
}
}Agreement Metrics
Krippendorff's alpha का उपयोग करके real-time inter-annotator agreement metrics admin dashboard में उपलब्ध हैं।
कॉन्फ़िगरेशन
agreement_metrics:
enabled: true
min_overlap: 2 # Minimum annotators per item
auto_refresh: true
refresh_interval: 60 # Seconds between updatesKrippendorff's Alpha की व्याख्या
| Alpha Value | व्याख्या |
|---|---|
| α ≥ 0.8 | अच्छा agreement - अधिकांश उद्देश्यों के लिए विश्वसनीय |
| 0.67 ≤ α ≤ 0.8 | Tentative agreement - tentative conclusions निकालें |
| 0.33 ≤ α ≤ 0.67 | कम agreement - guidelines की समीक्षा करें |
| α ≤ 0.33 | Poor agreement - महत्वपूर्ण समस्याएँ |
Admin Dashboard एकीकरण
/admin पर admin dashboard में quality control metrics देखें:
- Attention Checks: समग्र pass/fail rates, per-annotator statistics
- Gold Standards: Per-annotator accuracy, per-item difficulty विश्लेषण
- Agreement: Interpretation के साथ per-schema Krippendorff's alpha
- Auto-Promoted Items: High agreement से promoted items की सूची
API Endpoints
Quality Control Metrics
GET /admin/api/quality_controlAttention check और gold standard statistics लौटाता है।
Agreement Metrics
GET /admin/api/agreementInterpretation के साथ schema द्वारा Krippendorff's alpha लौटाता है।
पूर्ण उदाहरण
annotation_task_name: "Sentiment Analysis with Quality Control"
annotation_schemes:
- name: sentiment
annotation_type: radio
labels: [positive, negative, neutral]
description: "Select the sentiment of the text"
attention_checks:
enabled: true
items_file: "data/attention_checks.json"
frequency: 15
failure_handling:
warn_threshold: 2
block_threshold: 5
gold_standards:
enabled: true
items_file: "data/gold_standards.json"
mode: mixed
frequency: 25
accuracy:
min_threshold: 0.7
evaluation_count: 5
agreement_metrics:
enabled: true
min_overlap: 2
refresh_interval: 60समस्या निवारण
Attention checks दिखाई नहीं दे रहे
- सत्यापित करें कि
items_filepath सही है (task directory के relative) - जांचें कि items में आवश्यक fields हैं (
id,expected_answer) - सुनिश्चित करें कि
frequencyयाprobabilityसेट है
Agreement metrics "No items with N+ annotators" दिखा रहे हैं
- सुनिश्चित करें कि items कई users द्वारा annotate किए गए हैं
- यदि आवश्यक हो तो
min_overlapकम करें - जांचें कि annotations सही तरह से सहेजी जा रही हैं
आगे पढ़ें
- Training Phase - Annotator qualification
- Admin Dashboard - Metrics की निगरानी
- Task Assignment - Annotation वितरण नियंत्रण
कार्यान्वयन विवरण के लिए, source documentation देखें।