silico.biotoul.fr
 

M2BBS - IDH

From silico.biotoul.fr

(Difference between revisions)
Jump to: navigation, search
m (Installation locale)
m (Modélisation, représentation et construction d'une base de connaissances sur E. coli puis exploitation)
 
(103 intermediate revisions not shown)
Line 1: Line 1:
-
= BioMart =
+
= Introduction et présentation des différentes approches d'intégration =
-
== Premier pas avec BioMart : Utilisation de l'interface Web ==
+
Durée : 1/2 journée
-
Allez sur le site de l'EBI, puis sur BioMart pour interroger UniProt.
+
* [[Media:M2BBS - Integration de Donnees Heterogenes - Generalites.pdf|Approches]] et généralités
-
A partir du formulaire (dataset, filters et attributes) et du bouton <tt>count</tt>, estimer la taille du protéome de <i>Escherichia coli</i> K12, <i>Bacillus subtilis</i> 168 et <i>Pseudomonas aeruginosa</i> PAO1.
+
* Analyses préliminaires sur les données d'''E. coli'' : [https://silico.biotoul.fr/enseignement/m2bbs/idh/ppi.vs.coexp.html ppi.vs.coexp.html]
-
Ensuite, faites une requête pour obtenir tous les attributs 'Protein' ainsi que 'Gene Ontology'.
+
= Modélisation, représentation et construction d'une base de connaissances sur ''E. coli'' puis exploitation =
-
Puis :
+
Durée : 1 journée
-
* Essayer différents filtres (ayant des termes GO, ou autre).
+
-
* Sélectionner certains attributs.  
+
* [[Media:M2BBS - Integration de Donnees Heterogenes - NoSQL.pdf|Masses de données non structurées]]
-
* Utiliser la fonctionnalité ''count'' puis ''results''.
+
* Prise en main de Neo4j et intégration des données sur le génome d'''E. coli'' : [https://silico.biotoul.fr/enseignement/m2bbs/idh/Ecoli.knowledge.base.html Ecoli.knowledge.base.html]
 +
** Intégration de données d'expression
 +
** Intégration de données d'interaction protéine-protéine
 +
** Intégration de données phylogénomiques
 +
** Gènes co-exprimés et interactions protéiques et lien de conservation du contexte génomique
-
* A quoi peuvent servir les boutons <tt>XML</tt> et <tt>Perl</tt> ?
+
* [[Media:M2BBS - Integration de Donnees Heterogenes - Enrichissement.pdf|Recherche de caractéristiques sur-représentées]]
-
 
+
** Intégration de données d'annotation et recherche d'annotations sur-représentées chez les gènes/protéines partageant un lien de coexpression/interaction/phylogénomique
-
== Installation locale ==
+
-
Aller sur le site de BioMart pour récupérer la dernière version. Pour cela, vous aurez besoin de <tt>git</tt> et <tt>ant</tt> (à installer avec <tt>yum</tt> donc s'ils ne sont pas déjà présents sur le système).
+
-
 
+
-
La suite correspond essentiellement à des extraits du manuel utilisateur (section Quick start, etc.) pour mettre à disposition des jeux de données distant depuis votre serveur. Vous n'hésiterez donc pas à vous y référer pour plus de détails. Le travail à réaliser :
+
-
* compilation du serveur avec <tt>ant</tt>
+
-
* intégration d'une source de données distante au serveur, configuration de point d'accès et lancement du serveur
+
-
* intégration d'une source de données locale (MySQL) et édition de lien avec la source de données précédente
+
-
* utilisation à partir de l'interface Web et à partir d'un client de services Web (script python)
+
-
 
+
-
== Ajout de sources locales et édition de liens ==
+
-
* Télécharger le jeu de données ''gene'' (à la fin de cette page).
+
-
* Créer une base de données MySql pour héberger les tables gene et strain, avec le schéma suivant :
+
-
** gene(strain, gene, num, protein, start, end, function, uniprot)
+
-
** strain(strain, taxonomy_id, name, species)
+
-
* Alimenter ces tables avec les données téléchargées
+
-
* Ajouter le dataset ''gene'' à votre serveur BioMart et créer un ''Access point'' correspondant
+
-
* Ajouter un lien entre ''gene'' et ''strain''
+
-
* Ajouter un lien entre ''gene.uniprot'' et le jeu de données distant ''unimart''
+
-
 
+
-
== Services Web ==
+
-
* Suivre l'exemple donné dans la documentation pour effectuer une requête sur votre instance BioMart afin de récupérer un jeu de données depuis un script python ou perl
+
-
 
+
-
== Autres sources de données ==
+
-
* Répartissez-vous le reste des données disponibles en fin de page (sauf BioCyc, donc GO, profils phylogénétiques, String, et transcriptome) pour créer les tables correspondantes, faire le lien avec ''gene'' sur le type de données que vous aurez choisi, puis faire le lien avec les types de données hébergés par les instances de vos collègues.
+
-
 
+
-
= Annexes =
+
-
* http://biomart.org
+
-
* http://www.ebi.ac.uk/uniprot/biomart/martview
+
-
 
+
-
= Données et scripts =
+
-
* [[Media:M2BBS-IDH-gene.tar.bz2]] à mettre à jour
+
-
* [[Media:M2BBS-IDH-go.tar.bz2]]
+
-
* [[Media:M2BBS-IDH-phyogenetic_profiles.tar.bz2]]
+
-
* [[Media:M2BBS-IDH-string.tar.bz2]]
+
-
* [[Media:M2BBS-IDH-transcriptome.BsubA.tar.bz2]]
+
-
* [[Media:M2BBS-IDH-transcriptome.EcolA.tar.bz2]]
+
-
* [[Media:M2BBS-IDH-transcriptome.PaerA.tar.bz2]]
+
-
<!--
+
-
* [[Media:M2BBS-IDH-biocyc.tar.bz2]]
+
-
* [[Media:M2BBS-IDH-DBConnection.pm]]
+
-
-->
+
-
 
+
-
 
+
-
 
+
-
<!-- ARCHIVES -->
+
-
 
+
-
<!--
+
-
= Confrontation des données : approche ensembliste =
+
-
 
+
-
'''Algorithme :'''
+
-
# charger les ensembles de gènes correspondant à un critère biologique
+
-
# pour chacun de ces ensembles
+
-
## calculer la probabilité d'obtenir un intersection aussi importante avec l'ensemble d'intérêt
+
-
# trier les resultats
+
-
# afficher ceux qui sont significatifs (p-valeur <= seuil ou <= seuil ajusté par la FDR)
+
-
 
+
-
'''Rappel sur la FDR:'''
+
-
 
+
-
Pour ''m'' p-valeurs calculées (''m'' tests statistiques effectués), le seuil  ''alpha'' est ajusté de la manière suivante : tout d'abord les p-valeurs sont triées de manière croissante. Ensuite, elles sont déclarées significatives tant que ce qui suit est vérifié pour ''k'' allant de 1 à ''m'' :
+
-
<math>P_k \le \frac{k}{m} \times \alpha</math>
+
-
 
+
-
 
+
-
'''Quelques lignes de code utiles :'''
+
-
<source lang='perl'>
+
-
#!/usr/bin/perl
+
-
use strict;
+
-
use Data::Dumper;
+
-
use Getopt::Long;
+
-
use Class::Struct qw(struct);
+
-
use Math::NumberCruncher;
+
-
 
+
-
# COMMAND LINE PARAMETERS
+
-
# e.g. ./search_enriched_sets.pl --sets EcolA.biocyc.sets --query 'ALAS ARGS ASNS ASPS CYSS GLTX GLYQ GLYS HISS ILES'
+
-
my %params;
+
-
GetOptions(\%params,
+
-
        'sets=s',
+
-
        'query=s',
+
-
        'alpha=f',
+
-
        'adjust=s',
+
-
        'help'
+
-
);
+
-
 
+
-
my $defaults = {
+
-
'alpha'=> 0.05,
+
-
'adjust' => 'y'
+
-
};
+
-
 
+
-
sub usage {
+
-
print STDERR << "EOF";
+
-
 
+
-
  usage: $0 --sets str --query str [--alpha float] [--adjust y/n]
+
-
 
+
-
    parameters:
+
-
      --sets        str    sets file name
+
-
      --query      str    list of genes to investigate
+
-
     
+
-
      --alpha      float  threshold for p-value significance
+
-
                            (default: $defaults->{alpha})
+
-
      --adjust      str    adjust threshold for multiple testing (FDR)
+
-
                            (default: $defaults->{adjust})
+
-
 
+
-
EOF
+
-
}
+
-
 
+
-
if ($params{help} || !defined($params{sets}) || !defined($params{query}) ) {
+
-
usage;
+
-
exit(0);
+
-
}
+
-
 
+
-
 
+
-
 
+
-
# GLOBAL VARIABLES
+
-
my $sets; # reference sets to be search
+
-
my $population_size; # number of possible elements (= number of genes)
+
-
my %query; # query genes as keys
+
-
my $alpha = defined $params{alpha} ? $params{alpha} : $defaults->{alpha};
+
-
my $adjust = defined $params{adjust} ? $params{adjust} : $defaults->{adjust};
+
-
 
+
-
# LOAD SETS
+
-
sub load {
+
-
my ($filename) = @_;
+
-
open(F,$filename) || die "Cannot open $filename for input";
+
-
my $H;
+
-
my $version = 1.0;
+
-
my %pop;
+
-
while (<F>) {
+
-
($version) = $_ =~ /^#\s*version:\s*(\S+)\s*$/ if $_ =~ /#\s*version:/;
+
-
next if $_ =~ /^#/; # SKIP COMMENTS
+
-
chomp;
+
-
my ($id, @elements) = split /\t/;
+
-
next if ! defined $id;
+
-
my $desc = shift @elements if $version > 1.0;
+
-
$H->{$id}->{elements} = \@elements;
+
-
$H->{$id}->{description} = $desc if $version > 1.0;
+
-
@pop{@elements} = @elements;
+
-
}
+
-
return ($H, scalar keys %pop);
+
-
}
+
-
 
+
-
struct 'ComparedSet' => [
+
-
        id => '$',
+
-
        name => '$',
+
-
        common => '$',
+
-
        size => '$',
+
-
        pvalue => '$',
+
-
        elements => '@',
+
-
        commonElements => '@',
+
-
];
+
-
 
+
-
 
+
-
# MAIN #
+
-
########
+
-
 
+
-
# LOAD SETS
+
-
 
+
-
## TO DO ...
+
-
 
+
-
# EVALUATE SETs
+
-
 
+
-
##  TO DO ... (for each set, compute its pvalue)
+
-
 
+
-
# PRINT SIGNIFICANT RESULTS
+
-
 
+
-
## TO DO ...  (sort results and print them until pvalue > alpha or pvalue > adj_alpha)
+
-
 
+
-
</source>
+
-
 
+
-
Compléter le script ci-dessus afin de pouvoir analyser les ensembles suivants en utilisant le fichier [[Image:EcolA.biocyc.sets]]
+
-
 
+
-
* ALAS ARGS ASNS ASPS CYSS GLTX GLYQ GLYS HISS ILES
+
-
* PURC PURB PURH PURE PURK PURC PURB PURH PURE
+
-
* GLPC GLPB GLPA GLPD GLPK GLPQ UGPQ GLPC GLPB GLPA GLPD
+
-
* WRBA YIEF NUOB NUOC NUOI NUOE NUOF NUOG NUON NUOA NUOL NUOK NUOJ NUOH NUOA
+
-
* HISG HISI HISA HISF HISH HISB HISC HISD PURA PURB ADK  NRDB NRDA NRDD YGAD NRDE GUAB GUAA GMK  PURC PURH PURE PURK PURC PURD PURL PURM PURT PYRH PYRG NDK  CARA CARB PYRI PYRB PYRC PYRE PYRF PYRD PRSA PHNN DEOB HISG HISI HISA HISF HISH HISB HISC HISD PURA PURB ADK  NRDB NRDA NRDD YGAD NRDE GUAB GUAA GMK  PURC PURH PURE PURK PURC PURD PURL PURM PURT PYRH PYRG NDK CARA CARB PYRI PYRB
+
-
 
+
-
 
+
-
FIN confrontation des données -->
+
-
 
+
-
<!--
+
-
= Projets 2013-14 =
+
-
 
+
-
* [http://www.biomedcentral.com/1471-2105/8/332/abstract  Barriot, R., Sherman, D., Dutour, I., How to decide which are the most pertinent overly-represented features during gene set enrichment analysis (2007) BMC Bioinformatics, 8:332]
+
-
* [http://nar.oxfordjournals.org/cgi/content/short/gkn114v1 De Preter, K., Barriot, R., Speleman, F., Vandesompele, J., Moreau, Y., Positional gene enrichment analysis of gene sets for high resolution identification of overrepresented chromosomal regions (2008) Nucleic Acids Research]
+
-
 
+
-
----
+
-
== Préparation des données ==
+
-
 
+
-
Il s'agit de confronter des ensembles de gène obtenus par différents critères de regroupement. Pour chacune des sources de données, il faut créer un fichier représentant les ensembles de gènes obtenus.
+
-
 
+
-
* Profils phylogénétiques
+
-
 
+
-
Les profils fournis contiennent les informations de présence d'isorthologues (Iso), d'orthologues (Ort) ou de best hit (BeH) dans d'autres souches.
+
-
Il faut convertir cette matrice sous forme 0/1 pour ensuite effectuer un clustering des profils. Quelques commandes R permettent cette manipulation :
+
-
<source lang='rsplus'>
+
-
# chargement de la matrice originale
+
-
m=read.table("EcolA.phylogenetic_profiles", header=T, row.names=1)
+
-
# création d'une matrice de mêmes dimensions ne contenant que des 0
+
-
n=matrix(data=0, nrow=nrow(m), ncol=ncol(m), dimnames=dimnames(m))
+
-
# positionnement à 1 pour les Iso
+
-
n[m=='Iso']=1
+
-
# clustering
+
-
library(ade4)
+
-
n.dist=dist.binary(n,1) # 1: jaccard
+
-
n.dist[which(is.na(n.dist))] = 1 # si une paire de profils ne contient que des 0
+
-
hc=hclust(m, method='ave') # average linkage
+
-
# sauvegarde pour utiliser un script perl pour convertir au format newick
+
-
write.table(hc$merge, "EcolA.phylogenetic_profiles.01.hclust.merge", row.names=F, col.names=F)
+
-
write.table(hc$labels, "EcolA.phylogenetic_profiles.01.hclust.labels", row.names=F, col.names=F, quote=F)
+
-
</source>
+
-
 
+
-
 
+
-
* Transcriptome
+
-
 
+
-
Utiliser MeV (installé dans /opt/) pour effectuer un clustering hiérarchique des profils d'expression fournit et enregistrer le résultat au format newick (click droit sur l'arbre, puis save as newick).
+
-
 
+
-
 
+
-
* Gene Ontology
+
-
 
+
-
Utiliser le script fourni (convertGO_from_categories_closure.pl), pour combiner le dag de la Gene Ontology (gene_ontology.obo) avec des associations gènes--GOTerm.
+
-
 
+
-
* String
+
-
 
+
-
Effectuer un clustering avec MCL :
+
-
* Sélectionner un score de String (coexpression ou text mining par exemple)
+
-
* Eventuellement avec un seuil pour extraire les arêtes (>=500 par exemple)
+
-
* Générer un fichier pour MCL au format une arête par ligne : gene1 gene2 score
+
-
* Vérifier que le graphe est conséquent avec Cytoscape par exemple
+
-
* Utiliser MCL et vérifier le nombre de clusters obtenus (1 par ligne)
+
-
* Reformater le fichier pour qu'il soit lisible par sookoos (ajout d'un identifiant pour les clusters) :
+
-
echo '# format: sets' > EcolA.string.mcl.sets
+
-
cat -n out.EcolA.String.coexpression.edges.I20 | sed -r 's/^\s+/cluster_/'  >> EcolA.string.mcl.sets
+
-
 
+
-
== Recherche d'ensembles similaires ==
+
-
 
+
-
Utiliser le script <tt>sookoos</tt> pour analyser différentes relations, par exemple les clusters de String par rapport aux annotations de la Gene Ontology.
+
-
 
+
-
[scripts]$ ./sookoos
+
-
+
-
  Search for the most similar sets between 2 neighborhoods in terms of common elements.
+
-
+
-
  usage: ./sookoos [-h] [-d dissimilarity_index_type] [-a alpha_threshold] [-c multiple_adjustment_correction] -q query_file -t target_file
+
-
options:
+
-
-q file containing dag/tree/sets definition
+
-
-t file containing dag/tree/sets definition
+
-
+
-
-d dissimilarity index type
+
-
(default hypergeometric),
+
-
available indices : binomial, hypergeometric, ratio, mutual_coverage
+
-
+
-
-a threshold for significant results
+
-
(default 0.05)
+
-
-c perform multiple testing adjustment (FDR) (default YES)
+
-
+
-
-m maximum set size for performing comparison. Make it 0 for no limit.
+
-
(default 500)
+
-
+
-
-h display this help
+
-
 
+
-
FIN projets 2013-14 -->
+

Current revision as of 15:07, 27 August 2021

Introduction et présentation des différentes approches d'intégration

Durée : 1/2 journée

Modélisation, représentation et construction d'une base de connaissances sur E. coli puis exploitation

Durée : 1 journée

  • Prise en main de Neo4j et intégration des données sur le génome d'E. coli : Ecoli.knowledge.base.html
    • Intégration de données d'expression
    • Intégration de données d'interaction protéine-protéine
    • Intégration de données phylogénomiques
    • Gènes co-exprimés et interactions protéiques et lien de conservation du contexte génomique