Contingut Duplicat

Un problema molt habitual es el contingut copiat o duplicat

Taula de Continguts

El contingut copiat vulgarment dit duplicat

Nosaltres quan comencem un seo on page ens fixem molt amb el contingut copiat el qual és un dels inconvenients més estesos del posicionament en cercadors i, curiosament, un dels menys atesos, un exemple ha estat aquest mateix divendres una web d´un a empresa de molt prestigi i nom del país, la qual amb només 75 urls que te la web més o menys una trentena d´elles eren duplicades, malament, ja no entrem amb la manca d´h1, title i descripction de alguns dels articles, el qual impossibilita el posicionament d´aquests articles.

Seguim optimitzant la web i parlant dels duplicats

Sovint es parla de de quina manera optimitzar una pàgina web en condicions per als motors de cerca, principalment google, de quina manera aconseguir links de qualitat, quan abans de tot això la gran majoria de webs d´aquest país fins i tot moltes gestionades per empreses suposadament de prestigi en el mercat d´internet no han parat atenció a aquest problema tan estès “els molestos continguts duplicats”.

En aquest article intentaré t’explicar tot el que considero important del contingut duplicat

A la xarxa hi podeu trobar molts articles relacionats amb ell, però realment els anys i la pràctica de lluitar contra ells es com resoldre-ho, un exemple em va passar durant els meus principis i varen ser dos tipus de continguts duplicats el contingut generat amb 3 www i el contingut generat sense 3 www, igual que el tancament de les urls amb / al final o sense la / al final tot això genera contingut duplicat, aixi que si et sembla seus i ens endinse´m una mica a veure si sóc capaç d´explicar-te com detectar-lo i mig solventar el problema una mica per sobre…

Què és, on trobar i de quina manera alliberar-te d’ell.

Primerament seria bo fer-te una introducció de què és el contingut copiat realment, ja que no es el simple copy paste que tots tenim al cap al llegir aquesta capçalera.

Què és el contingut copiat

Es pot dir sense cap mena de dubte que el contingut copiat és qualsevol text repetit en més d’una URL, així sigui interna o bé externa. És el que passa quan el teu lloc produeix múltiples còpies d’una mateixa pàgina, o bé en el moment en què un spammer còpia un dels teus articles o tu utilitzes csv de les empreses que bens i no els modifiques per la qual cosa estàs utilitzant una font que utilitzen més empreses, en aquest cas es vital la manipulació via programació o manual. Molta gent pensa que i m´he trobat amb més d´un cas que ha portat a discussió inclosa que els continguts duplicats no tenen la menor rellevància i no es pas així, tot el contrari ja que suposen un ardu problema. Qualsevol usuari de Google espera localitzar resultats diferents, variats i de molt bona qualitat, no el mateix contingut una i altra vegada, té la seva lògica com quan nosaltres anem de shoping per Meritxell, Carlemany etc… Per aquesta raó cal filtra totes les còpies d’un mateix contingut per tal que no apareguin. Suposadament altres diuen evidentment jo no crec amb la imparcialitat de google, el procés de filtrat que fa el cercador és transparent, però jo en el meu cas quan faig un article nou, al moment l´indexo, i a google posa fa 22 segons que l´hem indexat, això molt poca gent ho sap fer, d´aquesta manera m´asseguro ser el primer en estar indexat amb aquest article que es meu pel cercador, aquest sistema funciona pel duplicat amb webs externes, demostrar sempre que tu ets l´original. Tu no tens per què saber que les teves pàgines s’han marcat com duplicades, i fins pots arribar a meditar que les teves pàgines són úniques i atreuen visites quan la realitat és molt, molt diferent per això tenim eines per controlar-ho. Així que si el teu lloc produeix contingut copiat, perds capacitat d’aparèixer en els resultats de la cerca i ser penalitzat i si la sanció es greu fins i tot vanejat cosa que ara aprofundirem.

Greus Conseqüències del contingut copiat

Ara que ja comences a saber i entendre per quina raó és tan essencial eludir qualsevol contingut duplicat ja sigui intern o extern, resulta convenient que sàpigues el que podríem anomenar sancions de google i inconvenients que pot causar al teu lloc web.

Les pàgines incorrectes

Tenir diferents pàgines per a un mateix contingut significa deixar a càrrec del cercador l’elecció de la pàgina adequada. Això no és bona idea, ja que pot triar una versió diferent de la que tu desitges, és un cas molt habitual entre webs de simples aficionats als blocs i molt estes a Andorra, són causats principalment per programacions a mida malament realitzades o com per webs amigables mal creades des de el .htaccess, però tot té solució.

Pitjor visibilitat

Al crear contingut copiat les conseqüències poden ser, que el cercador pot acabar mostrant una imitació de menys pes de la url que tu volies indexà la qual t’ha portat hores d´edició, i per tant, posicionar-la pitjor del que estaria la versió bona, conseqüència menys tràfic de bona qualitat.

Una indexació deficient

Realment i sense cap mena de dubte i sempre penseu que parlo pels fets que he patit personalment, la indexació de les teves pàgines es pot veure perjudicada greument pel fet que el cercador inverteix el seu temps en rastrejant les pàgines duplicades. Si el contingut copiat suposa una porció essencial del lloc, el cercador va a visitar les pàgines essencials amb una menor freqüència, i si hi ha altres webs com poden ser les de la competència que considera de més autoritat i sense duplicats, tindran sempre preferència per sobre de les teves.

El malbaratament de links

Aquest és un punt molt important, ja que les pàgines duplicades poden percebre aquests valuosos backlinks que tant necessitem per posicionar la nostra web i diluir la força dels nostres continguts, en tant que tots aquests backlinks podrien (i haurien de) estar sumant forces en una sola pàgina que és la que realment nosaltres volíem.

Reconeixement d´url equivocada

Aquest és el cas que ús comentava abans pel qual jo envio manualment els articles a indexar en 20 segons, perquè si no ens podem trobar que el cercador decideixi que el nostre contingut és originari d’un altre domini i excloure les nostres pàgines en els resultats. És el súmmum dels súmmums, més passa i jo ho llegeixo cada dia en algun dels grups dels meus alumnes d’Skype, i després de tot això un es pregunta…

¿Es veritat que penalitza Google el contingut copiat?

Viscut per les meves pròpies webs sobretot amb l´entrada de Panda i pinguin us puc dir que sí, és ben cert, així vull dir que Google rebutja el contingut copiat, si es una cosa lleu poder no ho penalitza, en aquest cas el que fa és filtrar-lo a fi que no aparegui en els resultats, el que és suficient càstig. No obstant això, els llocs que es dediquen a copiar i / o reescriure el contingut d’altres sistemàticament, els casos més greus com us deia abans si són penalitzats, però penseu que us podeu trobar una web amb contingut 100% duplicat i no estar penalitzada, en aquest cas us recomano mirar el codi font de la web on les metas podreu llegir “noindex”, en aquest cas li diuen a google que no indexi aquest contingut duplicat, i això fa el cercador no indexar aquestes pàgines i no penalitza’n-les. El conegut algoritme Panda es va dissenyar per l’abús que existia amb les webs automatitzades copia’n contingut de terceres, però aquest fet es segueix fent però com ja he dit abans amb el noindex o altres alternatives, nosaltres en som experts en webs automatitzades, i quan l’entrada de Panda vam tindre penalitzacions molt fortes i a dia d’avui ens hem reinventat.

Causes del contingut copiat o duplicat

Quan la gent pensa en contingut copiat la primera cosa que li ve el cap és la imatge d’un spammer que aterra en el seu lloc, còpia diversos articles i els queixa en un altre domini, poca gent sap la capacitat que tenim els autèntics webmasters d´extreure una web sencera, sí, m´heu llegit bé, jo tinc 2 sistemes diferents d´agafar i copiar el contingut complert d´una web, si una web es molt gran ho puc deixar per la nit i al matí ja la tinc, si en te com 200 o 300 articles només en qüestió d´un parell d´hores ja ho tinc i us direu que en faig d´aquest contingut, i la veritat que els professionals en sabem treure molt de partit i que quedi molt clar, no generem contingut duplicat, això avui en dia està en mans d´aprenents, jeje,us ho diré més clar, jo d´un article en puc generar com 200 articles diferents i cap d´ells es duplicat així que multipliqueu, en 2 hores i 10 minuts he creat dos mil articles únics. Però fora d´això que avui en dia es molt normal en els webmasters professionals com nosaltres, el contingut duplicat més caçat per google acostuma a ser de la mateixa web, per molt optimitzada que creguis que es troba.

Poder navegues en contingut duplicat i no ho saps

Ara el que tens de començar es a optimitzar la teva web a nivell contingut duplicat, és una part del Seo on page, realment la més oblidada per la majoria dels SEOS o Suposats seos, aquests que han sentit que s’han de fer enllaços per posicionar, cosa que fan, ara sense un ordre, aquests que han sentit això dels h2, h3 i els strongs, etc, però realment no tenen ni idea, els fas una auditoria de la web que intenten posicionar i tenen text ocult el qual pot ser penalitzat, h1 multiplicat per 3 cosa negativa perque enganyes al cercador, ja que no saben tocar codi ni localitzar ni llegir-lo, però nosaltres ara t’ensenyarem a revisar el contingut duplicat, poder un altre dia ús faré un article de seo on page mig avançat.

Domini no preceptiu

Jo per exemple tinc per costum operar sense les 3 wwww, així que redirigeixo totes les urls que es generen amb 3 w cap a la versió que no les porta, aleshores vosaltres heu de mirar com opera el vostre web, si opera de les dues maneres estem generant contingut duplicat, ja que els cercadors ho consideren com a dos dominis diferents, si ho prefereixes com 2 (sub) dominis, un que comença per “www.” i l’altra sense elles, passa el mateix amb la barra al final de les urls, és més jo des de el meu cpanel o agent resitrador puc encaminar el (sub) domini a una ip especifica i l’altre (sub) domini a un altre ip creant 2 webs totalment diferents, cosa que no aconsello, millor crear subdominis naturals. En aquest cas si localitzeu que teniu els 2 (sub) dominis actiu haureu de fer com faig jo, reencaminar cap al domini bo, i quin és el domini bo, jo us recomanaria agafar el de major PA Autoritat de pàgina. Així podem dir que la versió bona és la preceptiva i no establir-la adequadament fa que el teu lloc estigui repetit en les dues variacions.

Les pàgines segures

Es molt semblant al que parlàvem al punt anterior, així que podem dir de forma afí a com passa amb el domini preceptiu, si la teva pàgina web fa servir encriptació SSL “https”, pots acabar amb una còpia precisa en la versió segura (la que comença per HTTPS) que si no reencamines la versió http cap a la versió https podries generar 2 (sub) dominis com dèiem abans si a sobre no tenim ni encaminat les 3 www i el tancament de urls /, calculeu el volum de duplicats que generem per no crear unes rutes correctes, estem parlant de 6 en els millors dels casos de urls duplicades per cada una d’elles, increïble!, oi??

El famós ID de sessió

Molts llocs manegen les sessions d’usuari introduint un codi al final de la URL de cada pàgina principalment son webs que treballen amb webmasters i aquests IDS indiquen d´on procedeix la venda, seria el nom o el número del venedor del producte. Aquests factors, diferents per a cadascuna de les sessions d’usuari, poden fer que el cercador pensa que es tracta de pàgines separades, tot i que realment siguin exactament la mateixa.

El conegut com contingut actiu

Hi ha llocs que assignen factors a les URL per supervisar el contingut que es mostra a l’usuari podríem dir-li una id de seguiment, igual que ocorre amb els ID de sessió, els motors de cerca poden interpretar aquestes pàgines com còpies.

Els sempre descuidats Fitxers

Un inconvenient propi dels weblogs és que exactament el mateix contingut apareix en pàgines diferents, com passa en els fitxers de categories i etiquetes, per servir-nos d’un exemple per aquest motiu a wordpress tenim al yoast on podem discriminar molt bé tots aquests inconvenients, nosaltres utilitzem la versió premium, plugin que a tots els nostres clients wordpress els hi posem de manera gratuïta.

La famosa paginació

Qualsevol web que utilitzi paginació pot tenir aquest inconvenient, singularment si les pàgines de la sèrie comparteixen exactament el mateix títol i descripció, hi han dues maneres senzilles de resoldre aquestes son: posar a partir de la pàgina 2 al mig del title i la description pàgina 2, pàgina 3 i així successivament o que a partir de la pàgina 2 a les metas un simple noindex.

Versió mòbil si no teniu responsive

Cal deixar clar que no recomanem que el vostre a versió per a mòbils intel·ligents sigui en una URL independent, avui en dia s’h avançat molt amb disseny repsonsive, tanmateix si no teniu un producte realment bomba, no val la pena invertir en apps, el que teniu de fer es posar-vos al lloc del client i pensar si vosaltres ús la baixaríeu, avui en dia les apps no es que estiguin en extinció, ni de bon tros, sinó que la població només es baixa les que necessita de veritat, si per comprar una camisa en tinc 25 webs responsive i el vostre en app, vosaltres penseu, que és baixaran la vostra app??, ara sou una bomba és cosa diferent. Però anem per feina com anàvem dient si la versió mòbil de les teves pàgines es produeix en un URL independent (p.e. un subdomini o bé un subdirectori) i no es configura adequadament, el cercador pot tenir contrarietats per saber que es tracta d’una versió paral·lela.

Causes quan el contingut està duplicat fora de la nostra web

Ens referim a casos com per exemple les xarxes socials, sistemes de CDN, que es tindre els teus continguts en un segon servidor, el més habitual el escrapejat per un tercer, aleshores aprofundim en aquests motius més habituals els quals són:

Sindicació o xarxes socials

Un dels plagis involuntaris causats per un mateix sense adonar-nos el qual consisteix a enviar els teus continguts a altres llocs per atraure trànsit, com per posar un exemple a través de RSS, com pot ser a facebook, twitter, instagram etc. L’inconvenient pot sorgir quan publiquen una còpia completa del teu contingut en lloc d’un fragment que és com tindria de ser.

TLD per Ubicació

Aquesta practica no es molt habitual, però gent amb pocs coneixaments de posicionament web creu que per posicionar a un país determinat el millor es utilitzar el seu TLD, així que per dirigir-se a múltiples països poden haver emprat exactament el mateix contingut (o bé pràcticament) en múltiples dominis, com per servir-nos d’un exemple en un .es i en un .mx, com.ar, .co, etc…

El CDN

Més utilitzat per a webs gras amb molt de trafic, i per aquest motiu diversifiquen el seu contingut en una xarxa de lliurament de continguts anomanada CDN, això implica contestar una part del contingut web (primordialment fitxers estàtics) en els servidors de la xarxa. Això pot ser un inconvenient si no es prenen les mesures oportunes.

El que nosaltres utilitzem Scraping

Els scrapers emprenem diferents tipus de programaris robots i no robots, no cal ser un crack per copiar la teva pàgina i publicar-la en un altre domini, el que passa realment que els professionals utilitzem tècniques més avançades, no es basa en només escrapejar una web i ja està, sinó que espinejem el contingut donant un canvi total, cerquem imatges diferents les quals ens baixem massivament de la xarxa, les reanomenem massivament amb les tags que volem posicionar i ni google i ni el mateix editor se n´adona que es el que ell havia escrit anteriorment, també utilitzem eines de plagium que ens donen el tant % d’originalitat de l’article, però també us diré una cosa molt clara, poca gent sap aplicar el SEO a la web, un cop has espinejat, modificat fotos i aplicat el SEO, un article meu assoleix un 90% d’originalitat, així que supera totes les proves de google que ara parlarem i no hos perdeu això, molta gent ven aquests articles a la xarxa com a propis.

Plagis de tercers

Puntualment, algú pot copiar un text del teu lloc i publicar-ho al seu via feed o rss, ja que també hi ha eines si no bloqueges el teu feed o fas que només surti un extracta. La majoria de vegades ocorre de forma intencionada més altres no (la mentalitat completament és sense cost a Internet i es pot utilitzar de manera lliure) o això és el que es diu.

De quina manera advertir contingut copiat

Google identifica el contingut copiat quan es troba amb títols, descripcions, capçaleres i seccions idèntiques o bé molt afins, penseu que el robot llegeix d’esquerra a dreta, si el meu contingut es igual al vostre d´esquerra a dreta, sense cap tipus de modificació, estem veient un contingut totalment copiat, ara com us deia al principi de l’article si les sabates són de la mateixa marca però de diferent color i preu, ja no és el mateix, que si veus les mateixes sabates de color i preu, botiga rere botiga, cosa molt normal als carrers d’Andorra, on totes les botigues de calçat o la majoria son de l´Àlex boutiques i les de roba son de Via moda, aixo a la xarxa seria contingut duplicat, per evitar-ho faríem com ells barrejar-lo, però amb això poder no hi seria prou, ja veureu.
Contingut Duplicat
Per tant, per revisar el contingut copiat heu d’iniciar la per aquí. Ara et mostro els mètodes que nosaltres utilitzem:

La coneguda Google Search Console antiga Webmaster Tools

Si t’has donat d’alta a les eines per a administradors web de Google cos molt important per controlar la teva web, aquest és indubtablement el millor punt d’inici. Accedeix a Aspectes a la cerca, Millores en codi HTML i presta atenció a les etiquetes de títol i meta descripcions duplicades. L’informe t’afirma la quantitat de rèpliques existent i exactament en quines pàgines s’han trobat per tal que puguis corregir-les, pensa que la majoria dels casos només posa que hi han 2 duplicats aleshores només cal eliminar una de les dues urls, analitza totes a veure si el problema és al mateix si és un dels casos que hem parlat abans.

Footprint “site”

En propers articcles us explicaré que son el footprints i com emplearlos per afinar les recerques a google, aara aquest que seria així anem a google.ad i posem al explorador site:www.elmeudomini.com, es un procediment molt efectiu més requereix força feina. Consisteix a buscar en el teu lloc certes paraules o bé oracions clau, com productes en el cas d’una botiga on line en aquest cas podriem fer una recerca així (site:www.elmeudomini.com intext:”la paraula clau” o inurl:”el titol del producte”) intext li diem que dintre del text de la web té d´estar, inurl que es trba en la url, i posem les comes per ser precisos i no fer una recerca amplia en la url. En el resultat pots veure si hi ha pàgines amb títols i descripcions duplicats. Aquest procediment així mateix et deixa saber si certes pàgines han estat traslladades a l’índex secundari quan vegis un missatge a l’última pàgina de resultats ( “repetir la cerca i també incloure els resultats que s’han omès”). Això és un símptoma de contingut copiat.

Screaming Frog

Aquesta poderosa eina et deixa rastrejar el teu lloc darrere de continguts duplicats, entre moltes altres coses com enllaços trencats, o enllaços a tercers desconeguts. Les pestanyetes que et resulten d’interès són URI, Page Titles, Meta Description i H1, emprant el filtre Duplicate. Com l ´utilitzarem, més endavant farem un tutorial per treure més partit d´ella i com instalar-la de manera gratuïta, està disponible tant per Mac com PC, un cop instal·lada li introduïm la key i ja funciona perfectament, anem a configuration spider i la configurem segons les nostres necessitats, si no tenim cap bloquejador d´spam a La web no cal posar-li cap proxy, un cop fet això, hem de posar el Mode Spider i ens permetera posar la nostra url o la d’altres, en mode Serp o list es per analitzar centenars de webs, és una eina molt útil per a la compra de dominis expirats, aquí ho deixo anar, però per controlar el tema de contingut duplicat o manca d´etiquetes H1, title o description fins i tot per fer una auditoria SEO amb la secció spider teniu de sobres, també us podeu abaixar el CSV AMB ELS RESULTATS.

Google Analytics

Així mateix pots localitzar pàgines duplicades a Analytics a través d’l’informe Comportament, Contingut del lloc, Pàgines de destinació. La clau es troba a buscar URL sospitoses i pàgines que reben menys trànsit des de cercadors de què haguessin.

Eines d’anàlisi web externes

Hi ha eines capaces d’identificar contingut copiat, a part de backlinks trencats, pàgines no indexades i altres inconvenients bé difícils d’advertir a simple vista, com per posar un exemple la més poderosa de totes elles es Ahrefs que a dia d’avui ens ha apujat els preus i no ens permet treballar tant massivament com estàvem acostumats, però també tenim Sistrix que conjuntament amb ahrefs és una arma super poderosa per als bons SEOS, després tenim altres com Majestic, Semrush, i aquí es pot veure realment un bon SEO a l ´hora d’utilitzar aquestes eines i com les utilitza.

Advertir-ho quan està fora del nostre lloc

Si les còpies es troben fora de la teva pàgina web, pots revisar el contingut copiat a través de les pròximes eines: Com ja us he dit més d’una vegada nosaltres som webmasters per així que en coneixem tots els trucs a l’hora de copiar totes les webs i som els primers que no volem que es noti que el contingut és copiat o duplicat, no perquè google ens penalitzi la web, perquè també som experts en recuperar la web de penalitzacions si no per què si treballem amb adsense ens poden tancar el compte i això sí que no ens agrada, ja ens han tancat més d’un pel famós blackhatadsense i et bloquegen totes les webs que van relacionades amb aquell compta aleshores ens toca redireccionar-ho tot, i no hi han ganes de perdre tant de temps, per evitar el tema duplicat i saber els tants per cent d’originalitat dels nostres articles plagiats en primera instancia podem utilitzar eines com per exemple. La més utilitzada per nosaltres és: Plagiarism Checker – Avantatges fins a 2 mil querys o paràgrafs mensuals gratuïts, té plugin a per a WordPress que et permet analitzar el post un cop acabat, això t´estalvia el tediós copy paste, o fer el text sense fotos ni strongs, ni h2. etc … Molt recomanada per MAWEBMASTERS CopyScape – treballa per url, així que primer has de publicar, està força bé però no em convenç, teniu versió gratis com Premium Duplichecker – En aquest cas podeu posar el text a analitzar doneu el botó search i us donarà els resultats de la recerca, sàpiguen el tant per cent d’originalitat de l’article. Plagiarisma, Plagium treballen igual que Duplichecker, així que si teniu Wordepress ara us toca instal·lar el plugin de Plagiarism Checker i així estalviar-vos histories.
Google-Panda-Contingut-copiat

De quina manera lliurar-se del contingut copiat

Està clar que als motors de cerca no els agrada el contingut copiat pel fet que condueix a una experiència d’usuari pobra. De manera que si tens contingut copiat al teu lloc, has de fer tot el que resulta possible per suprimir-lo, No t’espantis que no cal Esborrar l’article sencer!!. Aquestes són les opcions primordials per tractar el problema:

Usa Rel Canonical per duplicat intern

L’etiqueta “rel = canonical” es va inventar exactament per tractar aquest inconvenient, amb el que és la millor solució. Consisteix en una línia de codi a la secció de la pàgina que assenyala al cercador quina versió és la bona (la preceptiva). Així mateix es pot incloure en la capçalera HTTP de la pàgina. Exemple Això surt en el head de la nostra web.

Crearem redireccions 301

S’aconsella quan no pots fer servir l’etiqueta preceptiva, quan mous el contingut d’una pàgina a una altra o bé quan estableixes el domini preceptiu. Les redireccions tres-cents u són ordres incloses en el fitxer .htaccess a Apache, també es poden crear amb php. Aquest es un exemple de 301 de sense 3 www a amb 3 www, igualment tingueu present que en els dies vinents en parlarem força dels 301 i en penjaré molts més exemples. RewriteCond %{HTTP_HOST} ^madwebmasters\.com$ [NC] RewriteRule ^(.*)$ http://www.madwebmasters.com/$1 [R=301,L] RewriteRule ^index\.php$ – [L]

Rebutja l’accés als robots

Per eludir que els motors de cerca trobin pàgines duplicades, pots servir-te de l’etiqueta meta robots “noindex” o bé del fitxer robots.txt on podem donar l órdre a google de no indexar un contingut com per exemple si posem: User-agent: * Disallow: /no-indexar/ Disallow: /author/ La url madwebmasters.com/no-indexar/ i las dels autors google les passaria de llarg, però si utilitzem els robots=”noindex” follow per exemple li diem que no la indexi però que segueixi els enllaços que tenim en aquesta URL, es recomanable.

Administra els factors d’URL Google Search Console,

En cas que el contingut copiat sigui provocat per factors, pots assenyalar a Google quins ha d’ignorar a través de l’eina Rastreig, Paràmetres de la URL a Google Search Console, aquí és molt bon sobretot per IDS, de sessió que hem parlat amb anterioritat, aleshores podríem demanar a google que aquelles webs que portin per exemple ID= que no siguin indexades, amb el botó addicció d’un paràmetre d’aquesta manera només llegiria les bones.

Utilitza Schema.org

El cercador pot servir-se de les dades estructurats per solucionar la confusió entre pàgines duplicades. Agrupa pàgines o bé reescriu continguts – Tant l’una com l’altra són solucions prudents quan múltiples pàgines del teu lloc mostren continguts molt similars o bé iguals.

Alliberar quan està fora del nostre lloc web

Si el teu contingut ha estat copiat per un tercer, la cosa ja canvia, però no pateixis que tot té solució, ja us he dit que nosaltres en som experts, i també som experts en sortir de penalitzacions, però bé en aquest cas tens les pròximes opcions:

Demana que ho esborrin

Envia un missatge a través de correu electrònic o bé formulari de contacte per demanar educadament que ho esborrin. Si no hi ha forma de comunicar-se, utilitza el correu electrònic del registre WHOIS, el que pots aconseguir a través de l’eina Whois.net encara que es pot trobar ocult. Demana’ls així mateix, que si no estan disposats a desfer-se del contingut, que si més no posin un link a la pàgina que t’han copiat i un noindex al head tal i com hem parlat abans, si no el millor serà posar-lo nosaltres mentres duri el problema. Això assistirà al cercador a identificar la font original, el problema es si en son molts duplicats externs, que et passis el dia sencer enviant correus.

Demana la supressió a Google

Si la comunicació no marxa, pots demanar al cercador que suprimeixi la pàgina infractora dels seus resultats. Per això, presenta una petició basada en la llei nord-americana de protecció dels drets d’autor (Digital Millennium Copyright Act, DMCA), si en tens tracta amb mes webmasters es fa una massiva, en aquests casos els resultats són molt és ràpids, per molt que nosaltres utilitzem contingut de tercers, no es pot fer servir íntegrament, tens d’afegir el teu punt de personalitat l´ has de modificar, el contingut de tercers té de fer-se servir com a base d’un contingut que tens en ment, començar des de 0 és molt complicat i la veritat no som tots ni editors ni periodistes, el problema més gran el trobem amb les eines automatitzades que utilitzem per a posicionament amb la qual generem contingut per a milers de llocs on crearem els nostres tiers 2 principalment, però d’això un altre dia en parlarem.

Ajuda a prosperar la detecció de plagi

Al costat del precedent, pots enviar el teu cas a Google per tal que el faci servir com un exemple en la millora dels seus algoritmes. Ara bé, tingues present que no es farà servir com a informe d’spam o bé copyright.

Consells generals per a prevenir l’aparició de contingut copiat

No facis servir mai exactament el mateix títol / descripció en més d’una pàgina El text de cada pàgina ha de ser únic per a tot el lloc i per tot el web Inclou només la versió preceptiva de la pàgina en els teus Sitemaps Quan copiïs una cita d’un altre lloc, inclou sempre i en tota circumstància un Backlink a l’original Quan vagis a copiar una pàgina sencera, sol·licita permís abans; inclou un enllaç a la font, i rebutja al cercador l’accés a la pàgina a través de robots (així mateix pots utilitzar rel canonical entre dominis) Tens inconvenients de contingut copiat al teu lloc? Aquí em teniu per a qualsevol consulta, no dubteu en preguntar però no per fer spam de el vostre web, també en sóc un expert, jejejejeje

Comparteix l'article

Facebook
Twitter
LinkedIn
WhatsApp
Pinterest
Email