>>Maile Ohye: Hi. I'm Maile Ohye. I'm a member
of Google's webmaster support team. And I'd
like to help you better understand how to
use the URL parameters feature in webmaster
tools.
URL parameters is a fairly advanced feature.
So some of this information might be more
complex than one would expect. Before you
further watch this video, please check out
the URL parameters page to see if you have
a message from Google explaining that we already
believe we have high crawl-coverage of your
site. And therefore no adjustments to this
feature are necessary. The message would say
"Currently Googlebot isn't experiencing problems
with coverage of your site. So you don't need
to configure URL parameters. Incorrectly configuring
parameters can result in pages from your site
being dropped from our index. So we don't
recommend you use this tool unless necessary."
For those of you who have that message, you're
good to go. And no further viewing is even
necessary. But for those of you who don't
have that message please keep watching. And
one of the main takeaways is that improper
actions on the URL parameters feature can
result in pages no longer appearing in search.
Again, it's an advanced feature.
The settings in the URL parameters are used
by Google as a helpful hint in our crawling
process. For stronger directives, you want
to use things like a robots.txt disallow.
Or a meta noindex. But using the URL parameters
hint is still very helpful.
In 2010, the Google store only sold about
160 products. And that seems fine and fairly
easy to crawl. But the thing is, that of these
160-ish products, it actually created 380,000
URLs. These URLs were created by things like
different types of navigation. So Googlebot,
in terms of crawling your site, doesn't just
look at, say, 200 unique URLs. But actually
has to determine which URLs to crawl of the
380,000 that were created. You can see how
Googlebot might want to be more efficient
in crawling by looking at these two URLs.
Now, the first one says, "category equals
YouTube." Let's say that URL to 20 unique
items on the page. But on the second URL,
it's "category equals YouTube and size equals
medium." So it's the exact same items. But
now just say, filtered down to five. Because
of the "size equals medium" parameter. So
in this way Google would rather just crawl
the first URL and reach all 20 of the items.
Rather than crawling both URLs and seeing
a redundant five items.
Essentially, with your input in URL parameters,
it helps us to understand your site better.
So we can crawl more efficiently. By crawling
more efficiently, we don't crawl as many duplicates.
And that will save you bandwidth. And helps
us to focus on your unique content. Rather
than crawling the duplicate of information
repeatedly. But if you want URLs removed,
you can go to URL Removals in Webmaster Tools.
Again, the URL parameters feature is to crawl
more efficiently. It's not about removals
or explicit robots.txt disallowing.
Another background piece of information that
I'd like to mention is that page-level markup
is still taken into consideration in tandem
with URL parameters. So if you have page-level
markup. Like rel, "canonical", or rel, "next"
"prev", or rel, "hreflang", that's fine and
can still be used by Google. Even if you are
using URL parameters. Just make sure that
we can still crawl your page. Meaning that
it's not robots.txt disallowed. Or you haven't
set it to not be crawled in URL parameters.
As long as we can crawl your page, we can
still use the page-level markup.
Since we've covered the background information,
let's now talk about the types of URLs that
are eligible for this feature. Here's one
from the Google store. It says, "category
equals office." Other URLs would be things
like "category equals wearables" or "category
equals wearables and size equals medium."
These URLs are eligible for the feature because
they come in key value pairs or name value
pairs. What it looks like is "key equals value"
and then perhaps an ampersand. And then "key
two equals value two." And Google, when we
see these parameters will treat this URL as
equivalent to this URL. Because the ordering
in the parameters doesn't matter.
URLs that are ineligible for this feature
are those that don't use the key value configuration.
So if a site uses a bunch of plus signs to
separate their parameters. Or they just use
a directory structure. Or they use their own
type of encoding. None of these types of URLs
can actually be used. Because this feature
requires the name value pairs.
Alright. I know that was a long intro. But
now let's get started with the feature. Step
one is to specify parameters that don't change
the page's content. So you can ask yourself,
"Do I have parameters that don't affect page
content?" Things like a session ID. An affiliate
ID. Or a tracking ID. These types of parameters
don't change page content. And so in the feature,
you can actually mark them as "does not change
content." And once you've said that, Webmaster
Tools will put one representative URL as the
setting. And then Googlebot will act accordingly.
Once step one is completed for all the parameters
that don't actually change page-content, then
let's move on to step two. Which comes in
two parts. The first part is to specify the
parameters that change page content. So you'll
select. "Yes, this changes, reorders, or "narrows"
page content." And then you can have a type
of page content effect. Whether that sorts,
"narrows", specifies, etcetera. And we'll
cover more of this in depth. Then the next
part is step two, 2B. which is to specify
Googlebot's preferred behavior. So given that
parameter, how would you like Googlebot to
actually crawl those URLs. And we'll talk
more about this as well.
[music in background]
The first parameter I'd like to cover is the
sort parameter. And we're covering this first.
But it's a fairly complicated parameter and
setting. The sort parameter is something like
"sort equals price ascending" or "rank by
equals bestselling." Any of these types of
parameters that just change the order that
the content is presented. These are sort parameters.
Once you identify a sort parameter or sort
parameters on your site, the next part is
to specify Googlebot's preferred behavior
for when they see URLs with this parameter.
Now this can get pretty tricky. So I have
two scenarios here. Let's go through the first
scenario. You could ask "Is the sort parameter
optional throughout my entire site?" Meaning
that the sort parameter is never displayed
by default. But only with manual selection.
If you can answer "Yes" to that question,
that "Yes, it's optional throughout my entire
site." Then go on to question two. "Can Googlebot
discover everything useful when the sort parameter
isn't displayed?" Meaning that we can actually
crawl all of your items even if no sort parameter
is present on the URLs. If that answer is
"Yes" and the first answer is "Yes" then it's
likely that with your sort parameter you could
specify "crawl No URLs." Once you've applied
this setting, please verify that the sample
URLs displayed in Webmaster Tools are in fact
not canonicals. So they're just duplicates.
And that the canonical URLs, the URLs that
you really want crawled and indexed, can be
reached by regular user navigation.
If the first sort parameter recommendation
didn't apply to your site, then hopefully
the second recommendation will. The second
recommendation is, if the same sort values
are used consistently site-wide. The questions
to ask yourself are, "Are the same sort values
used consistently across my entire site?"
So a negative example of this, where the user
would say "No" is if you're a Webmaster selling
things like coins and coin albums. So for
your coins, you might have "sort equals" with
the value "year issued." But "sort equals
year issued" doesn't apply to the selling
of your coin albums. So it's not used consistently.
If the answer to the first question is "Yes,"
Then you can ask yourself the second question.
Which is, "When a user changes the sort value,
is the total number of items unchanged?" If
that answer is also "Yes" then it's likely
that with your sort parameter you can specify
"only crawl URLs with value x" where X is
one of the sorting values that's used site-wide.
If neither of those recommendations apply
to your sort parameter, then perhaps select
"Let Googlebot decide."
The second parameter that I'd like to cover
is the "narrows" parameter. "narrows" filters
the content on the page by showing a subset
of the total items. So you probably see this
on an e-commerce site. Where in the navigation,
a user is able to select, if they only want
to see items that are less than 25 dollars.
Or 25 dollars to 49.99. aAll of this is narrowing
the content of the total items.
Examples of the "narrows" parameter are "size
equals medium." "Less than equals 25." Or
"Color equals blue." If the "narrows" parameter
shows less useful content. Shows content that's
just a subset of the content from the more
useful URL, which doesn't include the "narrows"
parameter. Then you might be able to specify
"Crawl No URLs." For example, a useful URL
is "category equals YouTube." And the less
useful URL is "category equals YouTube and
size equals medium."
Here, I might specify "size" as a "narrows"
parameter. And then because it has less useful
content, I can say "crawl No URLs." But before
I specify "Crawl No URLs" it's good to verify
a few things first. First, be sure that the
"narrows" parameter won't also filter out
useful pages that you'd like crawled and surfaced
in search results. So if you have brand or
category pages that you'd like to show to
users, be sure that when you select "Crawl
No URLs" that those brand and category pages
won't be affected. Second, verify that example
URLs that might be displayed in Webmaster
Tools are really URLs that provide non-useful
content. When compared to the parent URL.
So again, you see content like "Category equals
YouTube and size equals medium." And you know
that the "size equals medium" that narrows
parameter just isn't' useful.
If the behavior of "Crawl No URLs" just isn't
optimal for your site because it affects too
many important brand or category pages then
perhaps let Googlebot decide.
The next parameter is "Specifies." "Specifies"
determines the content displayed on a page.
For example, "item id equals android t-shirt"
or "sku equals 495." The "Specifies" parameter
is responsible for the actual content. So
you'll likely select "Crawl Every URL." After
"specifies" is "translates."
Unless you want to exclude certain languages
from being crawled and available in search
results, like auto-generated translations.
Unless that's the case, then it's likely you'll
select "Crawl Every URL."
As an aside, one best practice that I'd like
to mention, and this is by no means a requirement,
is to put your translated original content
not in a URL parameter, but actually in a
sub-folder or a sub-directory. The reason
why is that in a sub-directory or sub-folder,
it helps Google to better understand your
site's structure. And that this applies to
translated or regional content.
The last parameter is "Paginates." "Paginates"
displays one component page of a multi-page
sequence. Examples are "page equals three."
"Viewitems equals ten through 30." Or "start-index
is 20." With paginates, because you want us
to crawl every page to reach all of your items,
it's nearly always "Crawl Every URL."
Congratulations. You've finally gotten through
the discussion about the different parameters
and the desired Googlebot behavior. And now
you can go back to your site and repeat this
process for the different parameters that
you have. You don't have to do this for every
single parameter. But just including a few,
and specifying the right Googlebot behavior
can really help with your crawl efficiency.
We're almost done. But you might be asking
one last question. Which is, "What about multiple
parameters in one URL?" For example, "sku
equals 234 page equals three and sort by equals
price" etcetera. How does URL parameters work
when there are multiple parameter settings?
The answer is to remember that URL parameters
is about crawling your site more efficiently.
So you can imagine that all URLs that we know
about for your site. So if you're the Google
store, all 380,000 URLS begin as eligible
for crawling. And then we work as a process
of elimination. Not inclusion. So we take
our knowledge of your site. Combined by each
of your settings in URL parameters to slowly
weed away the URLs that shouldn't be crawled.
Until at the very end, we have a smaller subset
of good URLs.
To recap. If you're now more comfortable with
the URL Parameters, please utilize this feature
for more efficient crawling of your site.
You can start with specifying the parameters
that do not change page content. Those should
be easier to do. And then after you have done
that step, the next step is to specify parameters
that change the page content. And remember,
if you can't determine, don't guess. Please
"let Googlebot decide."
One more time, the sorts parameter. If the
sorts parameter for your site never exists
in a URL by default, then "Crawl No URLs."
Or if site-wide, the same sort value is always
used, then "Crawl URLs with value x." For
"Narrows" if your "narrows" parameter causes
non-useful filtering for searchers, like size
or price, then you might select "Crawl No
URLs." Just be sure to double-check that none
of your important pages will be affected.
For "specifies" it's usually "Crawl Every
URL." And the same applies to "Translates"
and "Paginates."
Yay! I think we've covered a lot of information
about URL parameters. Here are links to more
resources if you want further help. Thank
you and best of luck.
مرحبا أنا مايلي أوياي وانا عضوة في فريق الدعم لمشرفي موقع غوغل .
وأود أن أساعدك على فهم كيفية استخدام ميزة معايير روابط URL بشكل أفضل في أدوات
مشرفي الموقع.
معلمات URL هي ميزة متقدمة تماماً.
وبعض هذه المعلومات ربما تكون أكثر
مما يعتقده البعض. قبل أن تستكمل مشاهدة هذا المقطع، من فضلك راجع
صفحة معلمات URL لتشاهد أن كنت تملك رسالة من جوجل تشرح إن كنا
نؤمنّ معدل زحف عالي لموقعك. حينئذ لا توجد تعديلات اضافية لهذه
الميزة تهمك. الرسالة ربما تحتوي:" حالياً Googlebot لا يظهر مشاكلاً
في تغطية موقعك. لذلك لا يجب عليك تعديل معلمات URL. التعديل غير الصحيح
للمعلمات ربما ينتج عنه اسقاط صفحات موقعك من فهرسنا. لذلك نحن لا
ننصحك بإستخدام هذه الأداة إلا في حالة الضرورة."
لهؤلاء من يملكون هذه الرسالة، يمكنكم الذهاب. ولا ضرورة لإستكمال
المشاهدة. لكن لمن لا يمكلك هذه الرسالة أرجو منكم متابعة المشاهدة و
ăÇíáí ĂćĺÇí: ĂĺáÇ. ĂäÇ ăÇíáí ĂćĺÇí. ĂäÇ ĂÍĎ ÇÚÖÇÁ ÝŃíŢ ĎÚă ăÔŃÝí ÇáăćÇŢÚ Ýí ĚćĚá. ćĂŃŰČ Ăä
ÇÓÇÚĎßă áĘÝĺăćÇ ČÔßá ĂÝÖᥠŘŃíŢÉ ÇÓĘÎĎÇă ăăíŇÇĘ ăÚáăÇĘ ÇÓă ÇáăćŢÚ URL Ýí ÇĎćÇĘ ăÔŃÝí
ÇáăćÇŢÚ.
ăÚáăÇĘ URL ĺí ăíŇÉ ăĘŢĎăÉ ĘăÇăÇđ.
ćČÚÖ ĺĐĺ ÇáăÚáćăÇĘ ŃČăÇ Ęßćä ĂßËŃ
complex than one would expect. Before you
further watch this video, please check out
ăăÇ íÚĘŢĎĺ ÇáČÚÖ. ŢČá Ăä ĘÓĘßăá ăÔÇĺĎÉ ĺĐÇ ÇáăŢŘÚĄ ăä ÝÖáß ŃÇĚÚ
ŐÝÍÉ ăÚáăÇĘ URL áĘÔÇĺĎ Ăä ßäĘ Ęăáß ŃÓÇáÉ ăä ĚćĚá ĘÔŃÍ Ĺä ßäÇ
äÄăäř ăÚĎá ŇÍÝ ÚÇáí áăćŢÚß. ÍíäĆĐ áÇ ĘćĚĎ ĘÚĎíáÇĘ ÇÖÇÝíÉ áĺĐĺ
ÇáăíŇÉ Ęĺăß. ÇáŃÓÇáÉ ŃČăÇ ĘÍĘćí:" ÍÇáíÇđ Googlebot áÇ íŮĺŃ ăÔÇßáÇđ
Ýí ĘŰŘíÉ ăćŢÚß. áĐáß áÇ íĚČ Úáíß ĘÚĎíá ăÚáăÇĘ URL. ÇáĘÚĎíá ŰíŃ ÇáŐÍíÍ
ááăÚáăÇĘ ŃČăÇ íäĘĚ Úäĺ ÇÓŢÇŘ ŐÝÍÇĘ ăćŢÚß ăä ÝĺŃÓäÇ. áĐáß äÍä áÇ
ääŐÍß ČĹÓĘÎĎÇă ĺĐĺ ÇáĂĎÇÉ ĹáÇ Ýí ÍÇáÉ ÇáÖŃćŃÉ."
áĺÄáÇÁ ăä íăáßćä ĺĐĺ ÇáŃÓÇáÉĄ íăßäßă ÇáĐĺÇČ. ćáÇ ÖŃćŃÉ áĹÓĘßăÇá
ÇáăÔÇĺĎÉ. áßä áăä áÇ íăßáß ĺĐĺ ÇáŃÓÇáÉ ĂŃĚć ăäßă ăĘÇČÚÉ ÇáăÔÇĺĎÉ ć
one of the main takeaways is that improper
actions on the URL parameters feature can
result in pages no longer appearing in search.
Again, it's an advanced feature.
The settings in the URL parameters are used
by Google as a helpful hint in our crawling
process. For stronger directives, you want
to use things like a robots.txt disallow.
Or a meta noindex. But using the URL parameters
hint is still very helpful.
In 2010, the Google store only sold about
160 products. And that seems fine and fairly
easy to crawl. But the thing is, that of these
160-ish products, it actually created 380,000
URLs. These URLs were created by things like
different types of navigation. So Googlebot,
in terms of crawling your site, doesn't just
look at, say, 200 unique URLs. But actually
has to determine which URLs to crawl of the
380,000 that were created. You can see how
Googlebot might want to be more efficient
in crawling by looking at these two URLs.
Now, the first one says, "category equals
YouTube." Let's say that URL to 20 unique
items on the page. But on the second URL,
it's "category equals YouTube and size equals
medium." So it's the exact same items. But
now just say, filtered down to five. Because
of the "size equals medium" parameter. So
in this way Google would rather just crawl
the first URL and reach all 20 of the items.
Rather than crawling both URLs and seeing
a redundant five items.
Essentially, with your input in URL parameters,
it helps us to understand your site better.
So we can crawl more efficiently. By crawling
more efficiently, we don't crawl as many duplicates.
And that will save you bandwidth. And helps
us to focus on your unique content. Rather
than crawling the duplicate of information
repeatedly. But if you want URLs removed,
you can go to URL Removals in Webmaster Tools.
Again, the URL parameters feature is to crawl
more efficiently. It's not about removals
or explicit robots.txt disallowing.
Another background piece of information that
I'd like to mention is that page-level markup
is still taken into consideration in tandem
with URL parameters. So if you have page-level
markup. Like rel, "canonical", or rel, "next"
"prev", or rel, "hreflang", that's fine and
can still be used by Google. Even if you are
using URL parameters. Just make sure that
we can still crawl your page. Meaning that
it's not robots.txt disallowed. Or you haven't
set it to not be crawled in URL parameters.
As long as we can crawl your page, we can
still use the page-level markup.
Since we've covered the background information,
let's now talk about the types of URLs that
are eligible for this feature. Here's one
from the Google store. It says, "category
equals office." Other URLs would be things
like "category equals wearables" or "category
equals wearables and size equals medium."
These URLs are eligible for the feature because
they come in key value pairs or name value
pairs. What it looks like is "key equals value"
and then perhaps an ampersand. And then "key
two equals value two." And Google, when we
see these parameters will treat this URL as
equivalent to this URL. Because the ordering
in the parameters doesn't matter.
URLs that are ineligible for this feature
are those that don't use the key value configuration.
So if a site uses a bunch of plus signs to
separate their parameters. Or they just use
a directory structure. Or they use their own
type of encoding. None of these types of URLs
can actually be used. Because this feature
requires the name value pairs.
Alright. I know that was a long intro. But
now let's get started with the feature. Step
one is to specify parameters that don't change
the page's content. So you can ask yourself,
"Do I have parameters that don't affect page
content?" Things like a session ID. An affiliate
ID. Or a tracking ID. These types of parameters
don't change page content. And so in the feature,
you can actually mark them as "does not change
content." And once you've said that, Webmaster
Tools will put one representative URL as the
setting. And then Googlebot will act accordingly.
Once step one is completed for all the parameters
that don't actually change page-content, then
let's move on to step two. Which comes in
two parts. The first part is to specify the
parameters that change page content. So you'll
select. "Yes, this changes, reorders, or "narrows"
page content." And then you can have a type
of page content effect. Whether that sorts,
"narrows", specifies, etcetera. And we'll
cover more of this in depth. Then the next
part is step two, 2B. which is to specify
Googlebot's preferred behavior. So given that
parameter, how would you like Googlebot to
actually crawl those URLs. And we'll talk
more about this as well.
[music in background]
The first parameter I'd like to cover is the
sort parameter. And we're covering this first.
But it's a fairly complicated parameter and
setting. The sort parameter is something like
"sort equals price ascending" or "rank by
equals bestselling." Any of these types of
parameters that just change the order that
the content is presented. These are sort parameters.
Once you identify a sort parameter or sort
parameters on your site, the next part is
to specify Googlebot's preferred behavior
for when they see URLs with this parameter.
Now this can get pretty tricky. So I have
two scenarios here. Let's go through the first
scenario. You could ask "Is the sort parameter
optional throughout my entire site?" Meaning
that the sort parameter is never displayed
by default. But only with manual selection.
If you can answer "Yes" to that question,
that "Yes, it's optional throughout my entire
site." Then go on to question two. "Can Googlebot
discover everything useful when the sort parameter
isn't displayed?" Meaning that we can actually
crawl all of your items even if no sort parameter
is present on the URLs. If that answer is
"Yes" and the first answer is "Yes" then it's
likely that with your sort parameter you could
specify "crawl No URLs." Once you've applied
this setting, please verify that the sample
URLs displayed in Webmaster Tools are in fact
not canonicals. So they're just duplicates.
And that the canonical URLs, the URLs that
you really want crawled and indexed, can be
reached by regular user navigation.
If the first sort parameter recommendation
didn't apply to your site, then hopefully
the second recommendation will. The second
recommendation is, if the same sort values
are used consistently site-wide. The questions
to ask yourself are, "Are the same sort values
used consistently across my entire site?"
So a negative example of this, where the user
would say "No" is if you're a Webmaster selling
things like coins and coin albums. So for
your coins, you might have "sort equals" with
the value "year issued." But "sort equals
year issued" doesn't apply to the selling
of your coin albums. So it's not used consistently.
If the answer to the first question is "Yes,"
Then you can ask yourself the second question.
Which is, "When a user changes the sort value,
is the total number of items unchanged?" If
that answer is also "Yes" then it's likely
that with your sort parameter you can specify
"only crawl URLs with value x" where X is
one of the sorting values that's used site-wide.
If neither of those recommendations apply
to your sort parameter, then perhaps select
"Let Googlebot decide."
The second parameter that I'd like to cover
is the "narrows" parameter. "narrows" filters
the content on the page by showing a subset
of the total items. So you probably see this
on an e-commerce site. Where in the navigation,
a user is able to select, if they only want
to see items that are less than 25 dollars.
Or 25 dollars to 49.99. aAll of this is narrowing
the content of the total items.
Examples of the "narrows" parameter are "size
equals medium." "Less than equals 25." Or
"Color equals blue." If the "narrows" parameter
shows less useful content. Shows content that's
just a subset of the content from the more
useful URL, which doesn't include the "narrows"
parameter. Then you might be able to specify
"Crawl No URLs." For example, a useful URL
is "category equals YouTube." And the less
useful URL is "category equals YouTube and
size equals medium."
Here, I might specify "size" as a "narrows"
parameter. And then because it has less useful
content, I can say "crawl No URLs." But before
I specify "Crawl No URLs" it's good to verify
a few things first. First, be sure that the
"narrows" parameter won't also filter out
useful pages that you'd like crawled and surfaced
in search results. So if you have brand or
category pages that you'd like to show to
users, be sure that when you select "Crawl
No URLs" that those brand and category pages
won't be affected. Second, verify that example
URLs that might be displayed in Webmaster
Tools are really URLs that provide non-useful
content. When compared to the parent URL.
So again, you see content like "Category equals
YouTube and size equals medium." And you know
that the "size equals medium" that narrows
parameter just isn't' useful.
If the behavior of "Crawl No URLs" just isn't
optimal for your site because it affects too
many important brand or category pages then
perhaps let Googlebot decide.
The next parameter is "Specifies." "Specifies"
determines the content displayed on a page.
For example, "item id equals android t-shirt"
or "sku equals 495." The "Specifies" parameter
is responsible for the actual content. So
you'll likely select "Crawl Every URL." After
"specifies" is "translates."
Unless you want to exclude certain languages
from being crawled and available in search
results, like auto-generated translations.
Unless that's the case, then it's likely you'll
select "Crawl Every URL."
As an aside, one best practice that I'd like
to mention, and this is by no means a requirement,
is to put your translated original content
not in a URL parameter, but actually in a
sub-folder or a sub-directory. The reason
why is that in a sub-directory or sub-folder,
it helps Google to better understand your
site's structure. And that this applies to
translated or regional content.
The last parameter is "Paginates." "Paginates"
displays one component page of a multi-page
sequence. Examples are "page equals three."
"Viewitems equals ten through 30." Or "start-index
is 20." With paginates, because you want us
to crawl every page to reach all of your items,
it's nearly always "Crawl Every URL."
Congratulations. You've finally gotten through
the discussion about the different parameters
and the desired Googlebot behavior. And now
you can go back to your site and repeat this
process for the different parameters that
you have. You don't have to do this for every
single parameter. But just including a few,
and specifying the right Googlebot behavior
can really help with your crawl efficiency.
We're almost done. But you might be asking
one last question. Which is, "What about multiple
parameters in one URL?" For example, "sku
equals 234 page equals three and sort by equals
price" etcetera. How does URL parameters work
when there are multiple parameter settings?
The answer is to remember that URL parameters
is about crawling your site more efficiently.
So you can imagine that all URLs that we know
about for your site. So if you're the Google
store, all 380,000 URLS begin as eligible
for crawling. And then we work as a process
of elimination. Not inclusion. So we take
our knowledge of your site. Combined by each
of your settings in URL parameters to slowly
weed away the URLs that shouldn't be crawled.
Until at the very end, we have a smaller subset
of good URLs.
To recap. If you're now more comfortable with
the URL Parameters, please utilize this feature
for more efficient crawling of your site.
You can start with specifying the parameters
that do not change page content. Those should
be easier to do. And then after you have done
that step, the next step is to specify parameters
that change the page content. And remember,
if you can't determine, don't guess. Please
"let Googlebot decide."
One more time, the sorts parameter. If the
sorts parameter for your site never exists
in a URL by default, then "Crawl No URLs."
Or if site-wide, the same sort value is always
used, then "Crawl URLs with value x." For
"Narrows" if your "narrows" parameter causes
non-useful filtering for searchers, like size
or price, then you might select "Crawl No
URLs." Just be sure to double-check that none
of your important pages will be affected.
For "specifies" it's usually "Crawl Every
URL." And the same applies to "Translates"
and "Paginates."
Yay! I think we've covered a lot of information
about URL parameters. Here are links to more
resources if you want further help. Thank
you and best of luck.
Hola, soy Maile Ohye, miembro del equipo de soporte
webmaster de Google.
Me gustaría ayudarte a entender mejor cómo usar las funciones de los parametros URL
de las herramientas para webmaster.
Los parámetros URL son una herramienta
bastante avanzada, así que esta información
puede llegar a ser más compleja de lo que uno esperaría.
Antes de ver este video, comprueba la página
de parámetros URL para ver si tienes un mensaje
de Google donde se explica que creemos
que tenemos un alto rastreo de
tu página web y que, por tanto,
no se necesitan cambios para esta función.
El mensaje diría: "En este momento Googlebot
no está teniendo problemas con la cobertura de su
sitio web. No necesitas configurar los parámetros URL.
Si configuras erróneamente los parametros, las páginas
de tu sitio web pueden ser eliminadas de nuestro índice.
Por ello, no recomendamos que uses esta
herramienta a menos que sea necesario."
Quienes hayan recibido ese mensaje, pueden continuar;
no se necesitan más revisiones.
Para aquellos que no lo hayan recibido,
por favor, sigan comprobándolo.
Uno de los principales problemas es que los errores con las funciones de parametros URL pueden dar como resultado
que las páginas ya no aparezcan en la búsqueda.
Una vez más, se trata de una función avanzada.
Google utiliza las configuraciones de los parametros URL como una ayuda para nuestro proceso de rastreo.
Para direcciones más claras, puede desactivar
robots.txt o utilizar un meta noindex.
Sin embargo, usar la ayuda de
los parámetros URL resulta muy útil.
En 2010, Google Store solo vendió unos 160 productos.
Esto puede parecer fácil de rastrear.
Sin embargo, el problema es que, de estos 160 productos, se originaron 380 000 URL.
Estas URL fueron creadas por diferentes
tipos de navegación.
Por eso, en términos de rastreo, Googlebot
no solo mira unas 200 URL únicas,
sino que debe determinar qué URL rastrea de las 380 000 que se crearon. Podrás ver cómo
Googlebot decide ser más eficiente en el rastreo
al mirar estas dos URL.
La primera dice "Categoría igual a YouTube". Supongamos que esta URL es para 20 ítems únicos de esa página.
Pero con el segundo URL dice "Categoría igual a YouTube y tamaño igual a mediano".
Son los mismos ítems. Ahora filtremos a cinco,
debido al parámetro "tamaño igual a mediano".
De esta forma, Google prefiere rastrear
el primer URL y llegaría a los 20 ítems,
en vez de rastrear ambas URL
y ver los 5 objetos que se repiten.
Esencialmente, su aportación en los parámetros URL
nos ayuda a entender mejor su sitio web,
y así podemos rastrear con más eficiencia.
De esta manera, no rastreamos tantos duplicados
y eso le ahorrará ancho de banda. Además,
nos ayuda a centrarnos solo en su contenido
en vez de rastrear repetidamente la información duplicada. Pero si quiere eliminar URL, puede ir
a la eliminación de URL en las herramientas para webmasters. Le recordamos que la función
de parámetros URL sirve para rastrear con más eficacia;
no se trata de eliminar o de desactivar robots.txt.
Otro punto que me gustaría mencionar es que
el marcado a nivel de página
todavía se tiene en cuenta junto con los parámetros URL. Así que si su lenguaje de marcado es
rel="canonical", rel="next" "prev" o rel="hreflang"
no tiene que preocuparse ya que Google lo sigue usando,
incluso si usted utiliza parámetros URL.
Solo asegúrese de que
podamos rastrear su página. Esto significa
que usted no ha desactivado robots.txt
o que no lo ha configurado para que no rastree parámetros URL. Siempre que podamos rastrear su página,
podemos seguir utilizando el marcado a nivel de página.
Ahora que hemos hablado de lo general,
pasemos a los tipos de URL
aptos para esta función. He aquí uno de Google Store, que dice "categoría igual a
oficina." Otras URLs serían cosas como "categoría igual a utilizables" o
"categoría igual a utilizables y tamaño igual a mediano" Estas URLs son elegibles para la característica porque
vienen en pares de valores clave o pares de nombre y valor. Se ven como "clave igual a valor"
y luego tal vez un ampersand. Luego entonces, "clave dos igual a valor dos." Así Google, cuando ve
éstos parámetros, tratará esta URL de igual forma que ésta URL. Porque el orden
de los parámetros no importa.
Las URLs que son inelegibles por esta característica, son aquellas que no usan la configuración de valor-clave.
Así que si un sitio usa muchos signos positivos para separar sus parámetros, o usan
una estructura de directorio, o usan su propio tipo de codificación; ninguno de estos tipos de URLs
pueden realmente ser usados. Porque esta característica requiere los pares de nombre-valor.
Bien, sé que ha sido una larga introducción. Pero ahora vamos a empezar con esta característica. El primer
paso es especificar parámetros que no cambien el contenido de la página. Así que puedes preguntarte:
"Necesito parámetros que no afecten el contenido de la página?". Cosas como una sesión de ID, de afiliación
de ID, o un ID de seguimiento. Estos tipos de parámetros no cambian el contenido de la página. Así, en esta característica,
puede marcarlos como "no cambia el contenido". Y una vez que digas esto, Herramientas de Webmaster
pondrá una URL representativa como la configuración. Entonces después, Googlebot va a actuar acorde a ello.
Una vez que el paso 1 esté completo para todos los parámetros que, en realidad, no cambian el contenido de la página, entonces
vamos al segundo paso, el cual viene en dos partes. La primera parte es espicificar los
parámetros que cambian el contenido de la página. Selecciona: "Si, esto cambia, reordena, o "estrecha"
el contenido de la página." Y ahora vas a tener un tipo de efecto en el contenido de la página, si ordena,
"estrecha", específica, etc. Hablaremos mas de esto en profundidad. Ahora, la siguiente
parte es el paso 2B, el cual especifica el comportamiento preferido del robot de Google. Ahora, dado ese
parámetro, cómo te gustaría que el robot de Google rastree en realidad esas URL? Vamos a hablar
mas de esto también.
[música de fondo]
El primer parámetro que me gustaría cubrir es el de ordenamiento. Y vamos a cubrir primero este porque
es un parámetro bastante complicado ajustarlo.
El parámetro de ordenamiento es algo como
"ordenar = por precio ascendente" o "clasificar = por mejor vendido". Cualquiera de estos tipos de
parámetros solo cambian el orden en que el contenido es presentado. Estos son los parámetros de ordenamiento.
Una vez que identifiques un parámetro o parámetros de ordenamiento en tu sitio, la siguiente parte es
especificar al comportamiento preferido de Googlebot para cuando vea estas URL con este parámetro.
Ahora, esto puede ser bastante complicado. Entonces, tengo dos escenarios aquí. Vamos a través del primer
escenario. Te podrías preguntar "El parámetro de ordenamiento es opcional en todo mi sitio?" Significa
que el parámetro de ordenamiento nunca se muestra por defecto pero solo con selección manual.
Si puedes responder "Si" a esa pregunta, ese "Si" es opcional en todo tu
sitio. Ahora sigue con la pregunta dos. "Puede Googlebot encontrar cualquier cosa útil cuando el parámetro de ordenamiento
no se muestra?" Significa que en realdiad podemos rastrear todos tus elementos aún si no hay parámetro de ordenamiento
presente en las URL. Si esa respuesta es "Si" y la primera respuesta es "Si" entonces es
probable que con tu parámetro de ordenamiento podrías especificar "No Rastrear URL". Una vez aplicada
esta configuración, por favor verifica que la URL mostrada en las Herramientas de Webmaster no son
canonicas. Que son duplicados. Y esa URL canonica, la URL que
en realidad quieres rastrear e indexar, puede llegar a un usuario de navegación regular.
Si la primera recomendación del parámetro de ordenación no se aplicó a tu sitio, entonces espero
que la segunda recomendación lo haga. La segunda recomendación es, si los mismos valores de ordenamiento
Hola soy Ohye Maile. Yo soy un miembro del equipo de Google webmaster apoyo. Y me gustaría
quiero ayudarle a entender mejor cómo utilizar la función de los parámetros de URL en webmaster
herramientas.
Parámetros de URL es una característica bastante avanzada. Así que parte de esta información puede ser más
complejo de lo que cabría esperar. Antes de ver este video adicional, por favor visite
la página de parámetros URL para ver si usted tiene un mensaje de Google explica que ya
Creemos que tenemos crawl-alta cobertura de su sitio. Y por lo tanto ningún ajuste a este
característica son necesarios. El mensaje decía: "En la actualidad los problemas Googlebot no está experimentando
con la cobertura de su sitio. Así que no es necesario configurar los parámetros de URL. La configuración incorrecta
parámetros puede resultar en las páginas de su sitio que se cayó de nuestro índice. Así que no lo hacen
Recomendamos que utilice esta herramienta a menos que sea necesario. "
Para aquellos de ustedes que tienen ese mensaje, ya está bueno para ir. Y sin visión es aún más
necesario. Pero para aquellos de ustedes que no tienen ese mensaje, por favor seguir viendo. y
uno de los principales robos de balón es que las acciones indebidas sobre los parámetros de URL característica puede
resultado en páginas ya no aparecen en la búsqueda. De nuevo, es una característica avanzada.
.La configuración de los parámetros de URL son utilizados por Google como una sugerencia en nuestro rastreo
proceso. Para más fuertes directivas, que desea utilizar cosas como un disallow robots.txt.
O una meta noindex. Pero el uso de la pista de parámetros URL sigue siendo muy útil.
. En 2010, la tienda de Google sólo se venden alrededor de 160 productos. Y eso parece estar bien y bastante
fácil de rastrear. Pero la cosa es, que de estos productos 160-ish, que en realidad creó 380.000
URLs. Estos URLs fueron creados por cosas como los diferentes tipos de navegación. Así que Googlebot,
en términos de rastreo de su sitio, no basta con ver, por ejemplo, 200 direcciones URL única. Pero en realidad
tiene que determinar qué URL que se rastrearán de las 380.000 que fueron creados. Usted puede ver cómo
Googlebot puede querer ser más eficiente en el rastreo al ver estas dos URL.
Ahora, la primera de ellas dice: "categoría es igual a YouTube". Digamos que un 20 URL única
elementos de la página. Pero en la segunda URL, es "categoría es igual a YouTube y el tamaño es igual
medio. "Así que es exactamente los mismos artículos. Pero ahora acaba de decir, se filtra hacia abajo a cinco. Porque
del "tamaño medio es igual a" parámetro. Así que de esta manera Google preferiría simplemente arrastrarse
a primera URL y llegar a los 20 de los artículos. En lugar de rastrear tanto URLs y ver
una redundantes cinco elementos.
En esencia, con su entrada en los parámetros de URL, que nos ayuda a entender mejor tu sitio.
Así que podemos rastrear con mayor eficiencia. Arrastrándose más eficiente, no arrastrarse como muchos duplicados.
Y eso le ahorrará ancho de banda. Y nos ayuda a centrarse en su contenido único. más bien
que arrastra el duplicado de la información varias veces. Pero si quieres URLs eliminado,
usted puede ir a Mudanzas URL en las Herramientas para webmasters de Google. Una vez más, la función de los parámetros de URL es rastrear
de manera más eficiente. No se trata de mudanza o no permitir robots.txt explícito.
. Otra pieza de fondo de la información que me gustaría mencionar es que el marcado a nivel de página
todavía se toma en consideración conjuntamente con los parámetros de URL. Así que si tienes el nivel de página
marcado. Como rel, "canónica", o rel, "junto", "prev" o rel, "hreflang", eso está bien y
todavía puede ser utilizado por Google. Incluso si usted está usando parámetros de URL. Sólo asegúrese de que
todavía podemos rastrear su página. Lo que significa que no es no permitir robots.txt. O no tienen
configurarlo para que no se rastrearán en los parámetros de URL. Mientras que podemos rastrear su página, podemos
todavía utilizan el marcado a nivel de página.
Desde que hemos cubierto los antecedentes, ahora vamos a hablar de los tipos de URL que
son elegibles para esta función. Aquí está uno de la tienda de Google. Dice, "categoría
es igual a la oficina. "URLs Otros serían cosas como" categoría es igual a llevar encima "o" categoría
es igual wearables y el tamaño es igual a medio plazo. "Estas URLs son elegibles para la función porque
vienen en pares de valores clave o pares de nombre y valor. Su apariencia es "clave es igual al valor"
y luego tal vez un símbolo de unión. Y entonces "llave dos es igual a valor de dos". Y Google, cuando
ver estos parámetros tratar esta URL como equivalente a esta URL. Debido a que el pedido
en los parámetros no importa.
URLs que no son elegibles para esta función son los que no utilizan la configuración de valor clave.
Así que si un sitio utiliza un montón de signos más para separar sus parámetros. O simplemente utilizar
una estructura de directorio. O utilizan su propio tipo de codificación. Ninguno de estos tipos de URL
realidad puede ser utilizado. Debido a que esta función requiere que los pares de valores de nombre.
Muy bien. Sé que fue una intro larga. Pero ahora vamos a empezar con la función. paso
uno es para especificar los parámetros que no cambian el contenido de la página. Así que usted puede preguntarse,
"¿Tengo parámetros que no afectan el contenido de la página?" Cosas como un identificador de sesión. Un afiliado
ID. O un ID de seguimiento. Estos tipos de parámetros no cambian el contenido de la página. Y así, en la función,
en realidad se puede marcar como "no cambia el contenido." Y una vez que usted ha dicho que, Webmaster
Herramientas pondrá una URL como valor representativo. Y luego Googlebot actuará en consecuencia.
Una vez que se completa un paso de todos los parámetros que en realidad no cambian la página de contenido, a continuación,
vamos a pasar al segundo paso. Que se presenta en dos partes. La primera parte es para especificar el
parámetros que cambiar el contenido de la página. Así que usted seleccione. "Sí, esto cambia, reordena, o" estrecha "
contenido de la página. "Y entonces usted puede tener un tipo de efecto página de contenido. Ya sea que las clases,
"se reduce", precisa, etcétera. Y vamos a cubrir más de esto en profundidad. Entonces, el siguiente
parte es el paso dos, 2B. que es para especificar el comportamiento Googlebot preferido. Así que dado que
parámetro, ¿cómo te gustaría que Googlebot rastree en realidad los URLs. Y vamos a hablar
más sobre esto también.
[Música de fondo]
El primer parámetro que me gustaría cubrir es el parámetro de tipo. Y estamos cubriendo en primer lugar.
Pero es un parámetro bastante complicado y el ambiente. El parámetro de tipo es algo así como
"especie es igual al precio ascendente" o "rango por igual a éxito de ventas". Cualquiera de estos tipos de
parámetros que acaba de cambiar el orden en que se presenta el contenido. Estos son los parámetros de ordenación.
Una vez que se identifica un parámetro de ordenación o parámetros de ordenación en su sitio, la siguiente parte es
para especificar el comportamiento Googlebot recomendado cuando ven las URL con este parámetro.
Ahora bien, esto puede ser bastante ricky. Así que tengo dos escenarios aquí. Vamos a ir a través del primer
escenario. Usted podría preguntar: "¿Está el parámetro opcional tipo a lo largo de toda mi sitio?" significado
que el parámetro de tipo no aparece de forma predeterminada. Pero sólo con selección manual.
i usted puede responder "Sí" a esta pregunta, que "Sí, es opcional en todo mi
sitio ". Luego pasan a la segunda pregunta." ¿Puede Googlebot descubre todo útil cuando el parámetro de ordenación
no se muestra? "Lo que significa que en realidad podemos rastrear todos sus artículos, incluso si no tiene un parámetro tipo
está presente en el URL. Si la respuesta es "Sí", y la primera respuesta es "Sí", entonces es
probable que con el parámetro de ordenación podría especificar "No rastrear las URL". Una vez que haya aplicado
esta opción, por favor verifique que la URL de ejemplo se muestra en las Herramientas para webmasters de Google, de hecho,
no canónicos. Así que son sólo duplicados. Y que la URL canónica, las direcciones URL que
que realmente quieres rastrea e indexa, se puede llegar por la navegación del usuario regular.
Si la recomendación ordenar primer parámetro no se aplica a su sitio, es de esperar
la segunda recomendación voluntad. La segunda recomendación es, si los mismos valores de ordenación
se usan de manera habitual en todo el sitio. Las preguntas que debe hacerse son: "¿Son los mismos valores de ordenación
usan de manera habitual a través de mi sitio entero? "Así que un ejemplo negativo de esto, donde el usuario
diría "No" es que si eres un Webmaster vendiendo cosas como monedas y álbumes de monedas. Así, por
sus monedas, es posible que tenga "una especie igual a" con el valor "año de emisión." Sin embargo, "es igual suerte
años de acciones "no se aplica a la venta de sus álbumes de monedas. Así que no es utilizado de forma coherente.
Si la respuesta a la primera pregunta es "sí", entonces usted puede pedir a la segunda pregunta.
¿Cuál es, "Cuando un usuario cambia el valor de ordenación, es el número total de elementos sin cambios?" si
la respuesta también es "Sí", entonces es probable que con el parámetro tipo se puede especificar
"sólo rastrear las URL con el valor x", donde X es uno de los valores de clasificación que se utiliza en todo el sitio.
Si ninguna de estas recomendaciones se aplican a su parámetro de tipo, entonces tal vez seleccionar
"Vamos a Googlebot decidir".
El segundo parámetro que me gustaría cubrir es la "estrecha" parámetro. "estrecha" filtros
el contenido de la página, mostrando un subconjunto de los elementos totales. Así que es probable que vea este
en un sitio de e-commerce. Cuando, en la navegación, el usuario es capaz de seleccionar, si sólo quieren
para ver los elementos que son menos de 25 dólares. O 25 dólares a 49,99. todo esto se está reduciendo
el contenido de los documentos.
Ejemplos de la "estrecha" parámetro son "igual tamaño mediano." "Menos es igual a 25". o
"El color azul es igual". Si la "estrecha" parámetro muestra el contenido menos útil. Muestra el contenido que es
sólo un subconjunto del contenido de la dirección URL más útil, que no incluye la "estrecha"
parámetro. Entonces usted puede ser capaz de especificar "No Rastrear URL". Por ejemplo, un URL útil
es "categoría es igual a YouTube". Y la dirección es menos útil "categoría es igual a YouTube y
tamaño mediano es igual ".
Aquí, puede especificar el "tamaño" como una "estrecha" parámetro. Y a continuación, debido a que tiene menos útil
contenido, lo que puedo decir "No rastrear las URL". Pero antes de especificar "No rastrear las URL" es bueno para verificar
algunas cosas primero. En primer lugar, asegúrese de que la "estrecha" parámetro no también filtrará
páginas útiles que le gustaría arrastró y apareció en resultados de búsqueda. Así que si usted tiene marca o
páginas de la categoría que le gustaría mostrar a los usuarios, asegúrese de que al seleccionar "Crawl
No URL "que esas páginas de marcas y la categoría no se verá afectado. En segundo lugar, comprobar que el ejemplo
URLs que pueden aparecer en las Herramientas para webmasters de Google son en realidad direcciones URL que proporcionan no útil
contenido. Cuando se compara con la URL padre. Así que de nuevo, se ve el contenido como "Categoría iguales
YouTube y el tamaño medio es igual. "Y usted sabe que el" tamaño medio es igual a "que se estrecha
parámetro no es 'útil.
Si el comportamiento de "Crawl hay reglas" simplemente no es óptimo para su sitio, ya que afecta también
muchas páginas importantes de marca o categoría y luego dejar que el robot de Google tal vez decida.
El siguiente parámetro es "especificado". "Especificado" determina el contenido que aparece en una página.
Por ejemplo, "item id es igual androide t-shirt" o "sku es igual a 495." El "Especifica" parámetro
es responsable por el contenido real. Así que lo más probable es seleccionar "Crawl Cada URL". después
"especifica" es "traduce".
A menos que desee excluir ciertos idiomas del rastreo y la disposición a la búsqueda
resultados, como el auto-generados traducciones. A menos que ese es el caso, entonces es probable que usted
seleccionar "Crawl Cada URL"
Como acotación al margen, una buena práctica que me gustaría mencionar, y esto no es en absoluto un requisito,
no es poner su contenido traducido original en un parámetro de URL, pero en realidad en un
subcarpeta o un subdirectorio. La razón es que en un subdirectorio o subcarpeta,
Google le ayuda a comprender mejor la estructura de su sitio. Y esto se aplica a
traducido o de contenido regional.
El último parámetro es "paginado". "Paginado" muestra una página de componentes de una página multi-
secuencia. Algunos ejemplos son "la página es igual a tres." "Viewitems es igual a diez a 30." O "start-index
es de 20. "Con la paginación, porque quiere que arrastran todas las páginas para llegar a todos los elementos,
es casi siempre "Crawl Cada URL".
Felicitaciones. Usted finalmente ha conseguido a través de la discusión sobre los diferentes parámetros
y el comportamiento deseado Googlebot. Y ahora usted puede volver a su sitio y repetir este
proceso para los diferentes parámetros que usted tiene. Usted no tiene que hacer esto para cada
solo parámetro. Pero incluso unos pocos, y especificar el derecho comportamiento Googlebot
realmente puede ayudar con la eficiencia de su rastreo.
Ya casi hemos terminado. Pero se puede preguntar una última pregunta. ¿Cuál es, "¿Qué hay de múltiples
parámetros en una URL? "Por ejemplo," es igual a 234 sku página es igual a tres y ordenar por igual
precio ", etcétera. ¿Cómo parámetros de URL funciona cuando hay varios ajustes de parámetros?
precio ", etcétera. ¿Cómo parámetros de URL funciona cuando hay varios ajustes de parámetros?
Así que usted puede imaginar que todas las URL que sabemos acerca de su sitio. Así que si usted es el Google
tienda, todos los 380.000 URLs comienzan como elegible para el rastreo. Y entonces trabajamos como un proceso
de eliminación. No inclusión. Así que nos tomamos nuestro conocimiento de su sitio. Combinado por cada
de la configuración de los parámetros de URL para lentamente maleza lejos las URL que no deben ser rastreado.
Hasta que al final, tenemos un pequeño subconjunto de URLs bueno.
Para recapitular. Si usted es ahora más cómodo con los parámetros de URL, por favor utilice esta función
para el rastreo más eficiente de su sitio. Puede comenzar con especificación de los parámetros
que no cambian el contenido de la página. Estos deberían ser más fáciles de hacer. Y entonces después de haber hecho
ese paso, el siguiente paso es especificar parámetros que cambian el contenido de la página. Y recuerde,
si no se puede determinar, no adivine. Por favor, "dejar que el robot de Google decidir".
Una vez más, el parámetro de tipo. Si nunca el parámetro tipo para su sitio existe
en una URL de forma predeterminada, a continuación, "Crawl No URLs". O si en todo el sitio, el valor tipo es siempre igual
utilizado, a continuación, "rastrear las URL con el valor x". Para "Narrows" si su "estrecha" parámetro hace
no útiles para el filtrado de los buscadores, como el tamaño o el precio, entonces es posible seleccionar "Crawl No
URLs. "Sólo asegúrese de que compruebe que ninguna de sus páginas importantes se verán afectados.
Por "especifica" por lo general es "Crawl Cada URL". Y lo mismo se aplica a "Traduce"
y "paginado".
Yay! Creo que hemos cubierto una gran cantidad de información acerca de los parámetros de URL. Éstas son conexiones con más
recursos si desea más ayuda. Gracias y mucha suerte
Bonjour, je m'appelle Maile Ohyle, membre de l'equipe de support webmaster de Google.
J'aime t'aider à mieux comprendre comme utiliser les fonctions de les paramétres URL
des outils pour webmaster.
Les paramétres URL sont un outil aussi avancé, donc cette information
peut arriver à être plus complexe de ce que quelqu'un peut espérer.
Avant voir ce video, verifiez-vous le site
de paramétres URL pour voir si tu as un message de Google où ils expliquent qu'ils croient
que nous avons un haut poursuite du site web et que, par consequent,
il n'est pas necessaire des changement pour cette fonction. Le message disait: "Dans ce moment Googlebot
n'a pas des problèmes de couverture dans son site web. Tu n'as pas besion de configurer les paramétres URL.
Si tu donnes forme faussement aux paramétres, ton site web peut être supprime de notre table.
Pour cela, Nous ne vous recommende pas d'utiliser cet outil au cas où il est necessaire".
Les personnes qui ont reçu ce message, peuvent continuer; Ils n'ont pas besoin de plus revisions.
Pour ceux qui n'ont pas reçu ce mesassage, s'il vous plait, continuent les revisions.
Un des principaux problèmes c'est que les erreurs avec les fonctions de paramétres URL, peuvent donner comme resultat
que les sites n'apparaisent pas dans la recherche. Une fois plus, il s'agit d'une fonction avancé.
Google utilise les configurations des paramétres URL comme une aide pour notre procès de poursuite.
Pour direction plus claires, tu peut désactiver robots.txt ou utiliser un meta noindex.
Cependant, utiliser l'aide des paramétres URL est très util.
En 2010, Google store a vendu seulement 160 produits.
Ce peut paraître facire de poursuite.
Cependant, le problème est que de ces 160 produits, il se sont crées 380000 URL.
Ces URL ont été crées pour differents types de navegation.
Pour cela, en termes de poursuivre, Googlebot ne regarde seulement quelques 200 URL uniques,
mais il doit déterminer quel URL poursuit de ces 380000 qui se sont crées. Tu pourras voir comme
Googlebot decide être plus efficace dans le poursuivre en regardant ce deux URL.
La premier dit " Catégorie mème à Youtube".
En souposant que ce URL es pour 20 items uniques de ce site.
Mais avec le seconde URL dit: "catégorie même à Youtube et taille egal à moyen".
Son les m`mes items. Maintenant nous filtrons à cinq, due au pramétres " taille egal à moyen".
De cette façon, Google préfere poursuivre le premier URL et il arriverait aux 20 items,
au lieu de poursuivre les deux URL.
et voir les 5 objets qui se repetent.
Essenciellement, son apport aux paramétres URL nous aident à mieux comprendre son site web,
et de cette façon poursuivre plus eficacement. De cette manière, nous ne poursuivons pas aussi en doubles
et ce économise l'haut bébit. En plus, il nous aide à nous centrer seulement dans le contenu
au lieu de poursuivre à `plusieurs reprises l'information double. Mais si vous voulez supprimer le URL, vous pouvez aller
à l'élimination de URL dans les outils pour webmasters. Nous vous rappelons que la fonction
de paramétres URL s'utilise à poursuivre avec plus d'eficace; il ne s'agit pas d'éliminer ou de desactiver robots.exe.
Autre point que je veux mentioner est le marqué au niveau de site
encore il est tenu compet avec les paramétres URL: Alors que si son language de marqué est
rel="canonical", rel="next" "prev" o rel="hreflang" tu ne dois pas t'inquieter parce que Google continue à l'utiliser,
même si tu n'utilises pas des paramétres URL. Tu dois verifier seulement que
nous pouvons poursuivre le site. Cela signifie que tu n'as pas desactive robots.txt
ou que tu ne l'as pas configuré pour qu'il ne poursuive pas les àramétres URL. Toujours que nous poubvons poursuivre son site,
nous pouvons continuer à utiliser le marqué au niveaux de site.
Maintenant que nous avons parlé du general, nous passons aux types de URL
aptes pour cette fonction. Voilà un de Google Store, qui dit "catégorie egal à
boureau." D'autres URLs seront comme "Catégorie egal à utilisables" ou
"catégorie egal à utilizables et taille egal à moyen" Ces URLs sont élegibles pour la caracteristique parce que
ils viennent en pairs de valeurs code ou pairs de noms et valeurs. Il sont comme " code egal à valeur"
et après peutêtre un ampersand. Après allors. "code deux même egal à valeur deux." Comme ça Goolge, quand il voit
ces paramétres, traitera ce URL de la m`me façon que ce URL. Parce que l'ordre
des paramétres n'importe pas.
Les URL qu'on ne peut pas choisir pour cette caracteristique, sont celles que n'utilisent pas la configuration de valeur-code.
Alors si un site utilise beaucoup de signes positives pour mettre de côté leur paramétres, ou ils utilisent
une structure de repertoire, ou ils utilisent son propre type de codification; aucun de ces types de URLs
peuvent vraiment être utilisés. Parce que cette caracteristique exige les pairs de nom-valeur.
Bon, Je sais qu'il a été une large introduction. Mais maintenant nous allons commencer avec cette caracteristique. Le premier
pas est specifier les paramétres qui ne changent pas les contenu du site. Donc tu peut te demander:
"J'ai besoin de paramétres que n'afectent pas le contenu du site?": Des choses comme une seance de ID, d'afiliation
de ID, ou un Ide de poursuivre. Ces types de paramétres ne changentpas le contenu du site. Alors, dans ces cracteristiques,
tu peut les marqués comme " nechange pas le contenu". Et une fois que tu dis cela, Les Outils de Webmaster
meterent un URL représentative comme la configuration. Donc après, Googlebot va faire comme cela.
Une fois que le pas 1 soit completé pour tous les paramétres que, en realité, ne changent pas le contenu du site, alors
nous allons au pas seconde, lequel vient en deux parties. La premier partie est specifier les
paramétres qui changent le contu du site. Selectione:" Oui, ce change, remettre à l'ordre, o "étroite"
le contenu du site." Et maintenant tu auras un type d'effect dans le contenu du site, si metre à l'ordre,
"étroite", especifie, etc. Nous allons parler de cela profondement. M;aintenant, la suivante
partie es le pas 2B, laquelle specifie le comportement préféré du robot de Google. Maintenant, due ce
paramétre, comme tu veux que le robot de Google poursuivre vraiment ces URL? Nous allons parler
plus de cela aussi.
[Musique de fond]
Le premier paramétre que je veut presenter est ce du mettre à l'ordre. Et nous allons presenter ce en premier lieu parce que
est un paramétre assez compliqué d'ajuster. Le paramétre de mettre à l'ordre est quelque chose comme
"mettre à l'ordre = pour prix montant" ou "clasifiquer = pour mieux vendu". N'importe quel de ces types de
paramétres seulement changent l'ordre dans lequel le contenu est presenté. Ces sont les paramétres de mettre á l'ordre.
Une fois que tu reconaisses un paramétre ou des paramétres de mettre á l'ordre dans ton site, la suivante partie est
especifier le comportement préféré de Googlebot pour quand il voit ces URL avec ce paramétre.
Maintenant, ce peut être assez complique. Donc, j'ai deux sceènes ici. Nous allons à travers la premiere
scène. Tu peux te demander " Le paramétre de mettre a`l'ordre est optionnelle dans tout le site?" Il signifie
que le paramétre de m,ettre à l'ordre ne se montre jamais par defaut mais seulement comme selection manuel.
Si tu peux repondre " Oui" à cette question, ce "Oui" est optionnel danas tout ton
site. Maintenant continue avec la deuxième question. " Peut Googlebot trouver quelque chose d'util quand le paramétre de mettre à l'ordre
ne se montre pas?" Il signifie que vraiement nous pouvons poursuivre tous les elements m`me s'il n'y a pas de paramétre de mettre à l'ordre
present dans le URL. Si cette reponse es " Oui" et la première reponse est "Oui" alors est
probable que avec ton paramétre de mettre à l'ordre tu peux especifier " non poursuivre URL". Une fois apliqué
cette configuration, s'il vous plait verifiez que le URL montré dans les Outils de Webmaster ne sont
pas canoniques. Qu'ils sont doublés. Et ce URL canonique, le URL que
en realité tu veux poursuivre et indexer, peut arriver à un utilisateur regulier.
Si le premier conseil du paramétre de mettre à l'ordre ne s'est pas appliqué à ton site, alors j'espere
que le deuxième conseil le fera. Le deuxième conseil est, si les même valeurs de mettre à l'ordre
Ciao, sono Maile Ohye. Sono un membro del Google's webmaster support team
e vorrei aiutarti a capire meglio come usare la funzione 'Parametri URL'
degli Strumenti per i Webmaster.
'Parametri URL' e' una funzione piuttosto avanzata, per cui alcune di queste informazioni potrebbero risultare
piu' difficili di quanto uno potrebbe aspettarsi. Prima di continuare, consulta per favore
la pagina 'parametri URL' per vedere se hai un messaggio di Google indicante che abbiamo gia'
una buona copertura-visite del tuo sito e che percio' non serve apportare cambiamenti
alla funzione. Il messaggio sarebbe "Utilizza questa funzione
soltanto se sei sicuro del funzionamento dei parametri.
L'errata esclusione degli URL potrebbe comportare
la scomparsa di molte pagine dai risultati di ricerca."
Per tutti quelli a cui appare il messaggio siete a posto e non serve continuare
questo video, ma per tutti gli altri che non vedono il messaggio, continuate a seguirmi.
Uno dei consigli maggiormente utili e' che l'uso improprio della funzione 'parametri URL' potrebbe
portare a non vedere piu' pagine nella ricerca. Ripeto, e' una funzione avanzata.
Le impostazioni nei parametri URL vengono usate da Google come un aiuto al nostro processo di scansione.
Per direttive piu' decise userai cose come l'inibizione con 'robot.txt'
o la meta 'noindex', ma usare i parametri URL e' comunque molto utile.
Nel 2010, Google store ha venduto solamente 160 prodotti e sembrerebbe una cosa piuttosto
facile da scansire. Ma il fatto e' che in realta' quei 160 prodotti hanno creato 380.000 URL.
Questi URL sono stati creati da diversi tipi di navigazione. Per cui Googlebot,
in termini di scansione del tuo sito, non vede solo, diciamo, 200 singoli URL ma in realta'
deve stabilire quali URL scansire tra le 380.000 che verrebbero create.
Capisci quindi che Googlebot debba essere piu' efficiente osservando questi due URL:
dunque la prima dice "categoria=You Tube". Supponamo che questo URL rimandi a 20 singoli
elementi della pagina. Ma nel secondo URL c'e' "categoria=You Tube&taglia=media"
Sono esattamente gli stessi elementi ma ora, diciamo, ridotti a cinque, a causa
del parametro "taglia=media". Quindi in questo caso Google preferirebbe percorrere
il primo URL e visualizzare tutti i 20 elementi piuttosto che ripetere il passaggio per entrambe le URL
e rivedere gli stessi cinque elementi.
In sostanza, i dati inseriti in 'parametri URL' ci aiuta a capire meglio il tuo sito
cosi' da poterlo scansire piu' efficientemente. In questo modo noi evitiamo di ripercorrere duplicati
e cio' risparmia banda di trasmissione e aiuta a focalizzarci sui tuoi singoli contenuti piuttosto che
scansire continuamente le stesse informazioni. Ma se vuoi che siano eliminate degli URL,
puoi andare a 'Rimozione URL' degli 'Strumenti per i Webmaster'. Ripeto, la funzione Parametri URL serve a scansire
con piu' efficienza, non serve a rimuovere o a inibire come 'robots.txt'.
Un'altra informazone di base che tengo a citare e' che il markup di pagina
e' ancora preso in considerazione in tandem con i parametri URL. Quindi se hai un markup di pagina
come 'rel=canonical' o 'rel=next', 'rel=prev' o 'rel= alternate hreflang=x' va bene
e puo' ancora essere usato da Google, anche se stai usando parametri URL. Assicurati solo che
noi possiamo ancora scansire la tua pagina, cioe' che robot.txt non l'inibisce o che tu non l'abbia
impostato come non percorribile nei parametri URL. Soltanto se e' possibile scansire la tua pagina noi possiamo
usare il markup di pagina.
Dato che abbiamo esaurito le informazioni di base, parliamo ora dei tipi di URL
idonei per questa funzione. Eccone una dal Google Store. Dice:
'categoria=ufficio'. Altri URL potrebbero essere cose tipo 'categoria=abbigliamento' oppure
'categoria=abbigliamento&taglia=media'. Questi URL sono utilizzabili per la funzione perche'
arrivano in coppie chiave-valore o nome-valore. La forma e' 'chiave=valore"
ed eventualmente '&' e poi 'chiave2=valore2' e Google, quando
trova questi parametri, tratta questo URL allo stesso modo di quest'altro, perche' l'ordine
dei parametri non e' importante.
Gli URL non idonei per questa funzione sono quelle che non usano la forma chiave-valore .
Percio' se un sito usa dei segni '+' per separare i parametri o usa
una struttura a directory o una codifica proprietaria, nessuno di questi URL
potra' essere realmente utilizzata, dato che questa funzione esige la coppia nome-valore.
Bene. Lo so, e' stata una lunga introdizione, ma ora addentriamoci davvero nella funzione.
Il primo step e' di specificare quei parametri che non cambiano i contenuti della pagina. Ti potrai percio' chiedere:
"ho dei parametri che non influiscono sui contenuti della pagina?", cose tipo ID di sessione [SID],
ID [utente] affiliato o tracking ID? Questo tipo di parametri non cambiano i contenuti e quindi nella funzione
li puoi segnare come 'non influisce sui contenuti' e una volta fatto questo Webmaster
Tools mettera' un relatvo URL di riferimento e Googlebot agira' di conseguenza.
Terminato il primo step per tutti i parametri che non cambiano i contenuti di pagina,
passiamo allo step due che e' diviso in due parti: la prima parte per specificare
i parametri che cambiano i contenuti. Quindi selezionerai "Si', modifica, riordina o limita
i contenuti della pagina" e potrai scegliere tra diversi effetti tra cui, ordina
limita, specifica, ecc. e approfondiremo questo argomento piu' avanti. La parte successiva
e' lo steb 2b in cui specificare il comportamento di preferenza per Googlebot. Quindi, specificato il parametro,
come vuoi che Googlebot scansisca quegli URL? E ne parleremo
ancora anche di questo.
.
Il primo parametro che vorrei trattare e' il parametro 'sort' (ordina). Inizieremo da qui,
ma e' un parametro piuttosto complicato da impostare. Il parametro 'ordina' e' formato di solito da
"ordina=prezzo_crescente" o "classe=piuVenduto", qualsiasi tipo
di parametro che cambi l'ordine di presentazione dei contenuti, sono detti parametri di ordinamento.
Una volta stabilito quali siano i parametri di ordinamento del tuo sito, la prossima fase e'
specificare il comportamento che si preferisce tenga Googlebot quando trova URL con questo parametro.
Adesso viene il difficile: abbiamo qui due scenari, iniziamo dal
primo. Potresti chiederti: "il parametro ordina e' facoltativo in tutto il mio sito, cioe'
non viene mai visualizzato di default, ma soltanto per selezione manuale"?
Se la risposta e' "si'", cioe' "si' e' facoltativo per tutto il sito",
allora passa alla seconda domanda: "Googlebot puo' trovare tutto cio' che e' importante se il parametro ordina
non e' visualizzato?" nel senso che noi possiamo percorrere tutti gli elementi anche senza il parametro
'ordina' nelle URL. Se la risposta e' "si'" cosi' come la prima, allora
puoi probabilmente specificare il parametro "Nessun URL". Una volta selezionato
questo valore, verifica che le URL di esempio in Strumenti per Webmaster siano infatti
non ricorrenti, cioe' non duplicati e che gli URL ricorrenti, gli URL che
vuoi siano realmente scansite e indicizzate, siano raggiungibili dalla normale navigazione degli utenti.
Se la prima proposta di ordinamento non fa al caso del tuo sito, forse
lo sara' la seconda. Nella seconda proposta, se gli stessi valori di ordinamento
sono usati costantemente in tutto il sito, la domanda che potrai farti e': "in tutto il mio sito
vengono usati gli stessi valori di ordinamento?". Un tipico esempio di risposta negativa
potrebbe essere se sei il webmaster di un sito che vende monete e raccolte di monete. Quindi per
le tue monete potresti avere "ordina=anno-di-emissione",
ma cio' non vale anche per le raccolte di monete, quindi non vengono usati sempre gli stessi valori.
Se la risposta alla prima domanda e' "si'", allora puoi fartene anche una seconda,
che e': "se un utente cambia il valore di ordinamento, il numero di elementi rimane lo stesso?".
Se la risposta e' anche qui "si'" allora probabilmente potrai specificare il parametro
"Solo gli URL con valore x", dove 'x' e' uno dei valori usati nel sito.
Se nessuna di queste proposte riguardano il tuo parametro di ordinamento, allora potresti scegliere
"Lascia decidere a Googlebot".
Il secondo parametro che vorrei considerare e' il parametro "Circoscrive". Esso filtra
i contenuti della pagina visualizzando un sottoinsieme degli elementi totali. Lo avrai probabilmente gia' visto
in un sito di e-commerce, dove l'utente ha la possibilita' di scegliere se vuol vedere
solo elementi a meno di 25 dollari o tra i 25 e i 49.99. Tutto cio' circoscrive
l'insieme di tutti gli elementi.
Esempi per il parametro "circoscrive" sono "taglia=M", "minore_di=25"
o "colore=blu". Se il parametro "circoscrive" mostra meno contenuti utili, cioe' contenuti che sono
soltanto un sottoinsieme di cio' che mostrerebbe un URL piu' 'utile', che non comprende quel
parametro, potresti quindi selezionare "Nessun URL". Un esempio di URL 'utile'
e' "categoria=You Tube" mentre un URL meno 'utile' e' "categoria=You Tube&taglia=M".
.
Qui io potrei specificare "taglia" come parametro che circoscrive e poi, visto che mostrerebbe meno
contenuti utli, posso indicare "Nessun URL". Ma prima di specificare questo e' bene verificare
prima un paio di cose. Primo, assicurarsi che il parametro che circoscrive non filtri pure
pagine utili che vorresti vengano mostrate nei risultati di ricerca. Mettiamo tu abbia pagine con
marche o categorie che vorresti siano viste dagli utenti, assicurati che selezionando "Nessun URL"
non vengano coinvolte proprio quelle pagine. Secondo, verifica che gli URL
di esempio mostrati in Strumenti per i Webmaster, mostrino realmente contenuti
'non-utili', se paragonate agli URL-genitore. Ripeto, vedendo contenuti tipo
"categoria=You Tube&taglia=M", sai gia' che "taglia=M" e' un parametro
che non e' utile.
Se la funzionalita' "Nessun URL" non ti sembra adatta per il tuo sito, in quanto coinvolge
troppe pagine di marchi o categorie importanti forse e' meglio "Lascia decidere a Googlebot".
Il prossimo parametro e' "Specifica". "Specifica" determina i contenuti visualizzati nella pagina.
Per esempio: "itemid=maglietta-android" o "SKU=495". Il parametro "Specifica"
e' responsabile dei contenuti, quindi selezionerai "Ogni URL".
Dopo "Specifica" c'e' "Traduce".
A meno che tu non voglia escludere certi linguaggi da certi risultati di ricerca,
per esempio, traduzioni automatiche, e' dunque preferiblie che
selezioni "Ogni URL".
A latere, un'ottima abitudine che vorrei citare, ma non e' assolutamente obbligatorio,
e' di mettere i tuoi contenuti originali tradotti, non in un parametro URL, ma piuttosto in
una sotto-cartella o sotto-directory. I motivi per fare cio' sono che
aiuta Google a capire meglio la struttura del tuo sito. E cio' vale sia
per i contenuti tradotti o quelli originali.
L'ultimo parametro e' "Numera le pagine". "Numera le pagine" mostra una pagina tra una sequenza
multi-pagina. Ad esempio "pagina=3", "elementiVisibili=10-30" o
"indice-iniziale=20". Con "Numera le pagine", dato che vorrai che ogni pagina sia scansita da noi per tutti gli elementi.
sceglierai presumibilmente "Ogni URL".
Complimenti, sei riuscito a seguire l'intera discussione sui diversi parametri
e il comportamento desiderato di Googlebot. Ora torna al tuo sito e ripeti questo
processo per tutti i diversi parametri che possiedi. Non serve che tu lo faccia per ogni
singolo parametro, ma inseriscine solo alcuni e specificando il corretto comportamento di Googlebot
potrai davvero migliorare la tua efficienza di scansione.
Abbiamo quasi finito, ma forse ti farai un'ultima domanda, cioe': "che si fa in caso di
parametri multipli in un solo URL", per esempio: "SKU=234&pagina=3&ordina=prezzo"
eccetera"? Come funziona 'parametri URL' quando ci sono da specificare piu' parametri?
La risposta e', ricorda che 'parametri URL' serve a scansire il tuo sito piu' efficientemente.
Dunque, immagina tutti gli URL che noi conosciamo del tuo sito, mettiamo sia Google store con
tutti i 380.000 URL pronti a essere scansiti, e compiamo il processo
di eliminazione, non inclusione, guidato da ognuna
delle tue impostazioni in 'parametri URL', per sfoltire lentamente gli URL da non scansire.
Al termine, otterremo un sottoinsieme minimo di URL 'buone'.
Riassumendo: se ora hai preso confidenza con 'parametri URL', usa per favore questa funzione
per una piu' efficiente scansione del tuo sito. Potresti incominciare a specificare quei parametri
che non cambiano i contenuti della pagina, che sono i piu' semplici e poi, dopo aver terminato
questo step, il prossimo sara' di specificare i parametri che cambiano i contenuti delle pagine. E ricorda,
se non riesci a capire, non fare. Per piacere: "Lascia decidere a Googlebot".
Di nuovo, i parametri di ordinamento: se il tuo sito non usa i parametri di ordinamento
nell'URL di default, usa "Nessuna URL" oppure se per tutte le altre viene usato sempre lo stesso valore di
ordinamento, usa "solo gli URL con valore x". Per "Circoscrive", se i tuoi parametri filtrano pagine
'non-utili' per le ricerche, come 'taglia' o 'prezzo', dovrai scegliere "Nessun URL".
Assicurati solo di ricontrollare che nessuna pagina 'importante' venga esclusa.
Per "Specifica" di solito si usa "Ogni URL" e lo stesso vale per "Traduce"
e "Numera le pagine".
Yay! Penso di aver dato abbastanza informazioni sui "parametri URL". Ecco dei link con ulteriori
risorse se vorrai altro aiuto. Ti ringrazio e ti saluto.
>>Maile Ohye:안녕하세요 저는 Maile Ohye입니다.
저는 구글의 웹만스터 지원 팀에서 일합니다.
저는 웹마스터 툴에서 URL 파라미터의 기능을
어떻게 사용하는지 알려드리고자 합니다.
.
URL 파라미터는 매우 발전된 기능입니다.
그래서 몇 몇의 이 정보는 꽤
생각하신 것보다 복잡합니다.
이 비디오를 더 시청하시기 전에, 확인 해 주세요
URL 파라미터 패이지를 알기위해 구글의 안내문이 나오면
우리가 당신의 사이트를 몽땅 뽑아서
저장했다고 생각하셔도 됩니다.
그러므로 기능 조정이 필요 없습니다.
메시지가 "현재 구글봇이 당신의 사이트를 포함하다가
경험하지 못한 문제 발생했습니다.
당신은 URL 파라미터를 설정할 필요가 없습니다.
부정확하게 설정된 파라미터는 색인에서 지워집니다.
필요하지 않는 한 이 도구를 이용하도록 권합니다."
그 메시지를 받으신 분들은 그만 가셔도 좋습니다.
그러나 이 메시지를 받지 못하신 분은 계속 시청해 주세요.
메지지를 받지 못하는 하나의 주된 이유는
URL 파라미터의 기능을 향상시켜
검색에서 더 이상 해당 페이지가 나타나지 않기 때문입니다.
향상된 기능 탓입니다.
URL파라미터의 설정은 구글의 크롤링 작업에 도움이 됩니다.
더 강력한 방법으로는 robots.txt 를
사용하지 않도록 요청하는 겁니다.
또는 메타 색인을 사용하지 않도록 하는 겁니다.
하지만 URL파라미터의 힌트를 사용하는 것은
아직까지 매우 도움을 줍니다.
2010년에 구글스토어는 단지 160개의 제품을 팔았습니다.
그것은 좋고 매우 쉽게 크롤(내려받기)할 수 있어보입니다.
하지만 160개의 물건이 만든 것은
실제적으로 3만8천개의 URL입니다.
이 URL은 다른 종류의 탐색을 위해서 만들어졌습니다.
그래서 구글봇은
당신의 사이트 크롤링에 관해서, 200개의 독자적인 URL을
단순히 보고 말하지 않습니다. 하지만 실제적으로
3만8천개의 중 어떤 URL을 수집할지하고
인덱스로 만들지에 대해서 결정해야 합니다.
당신은 구글봇이 이 2개의 URL을 보고
어떻게 더 효과적 수집을 하는지 알 수 있습니다
첫 번째 것은 "범주 = 유투브"
URL이 20개의 각각의 소재를 페이지에 담고 있다고 합시다.
그런데 2번 째 URL은 "범주 = 유투브 & 사이즈는 중간"입니다.
그렇습니다 이것은 정확히 같은 소재입니다.
그러나 이것은 단지 걸러진 5개를 말해줄 뿐입니다.
왜냐하면 "사이즈 중간"이라는 파라미터 때문입니다.
이런 방식으로 구글은 크롤 하려합니다.
첫번째 URL로 모든 20개의 소재에 접근할 수 있도록합니다.
두 URL모두 크롤(수집)하기보다는
불필요한 5개의 소재를 보려고 합니다.
기본적으로 URL 파라미터에 당신이 입력한 것이
당신의 사이트를 분석하는 데 도움을 줍니다.
덕분에 우리는 더 효과적으로 수집을 할 수있습니다
수집을 효과적으로 하므로서, 우리는 중복 수집을 안합니다.
그것은 당신의 대역폭을 절약하도록 합니다.
그리고 당신의 특별한 내용 자체에 집중하도록 합니다.
중복자료를 수집하기보다.
하지만 당신이 URL등을 삭제하기 원하시면
웹마스터 툴의 URL Removals로 가시면 됩니다.
다시 URL 파라미터의 기능은 더 효과적으로 수집됩니다.
이것은 제거나 정확히 robots.txt의 접근 불허가 아닙니다.
다른 남아있는 페이지 레벨의 마크업 정보의 조각중
URL 파라미터 관한 중요한 것은 여전히 가지고 있습니다.
만약 당신이 페이지 레벨의 마크업을 가지고 있다면
Like rel, "canonical", or rel, "next" "prev", or rel, "hreflang"
위의 것들은 여전히 구글에서 사용됩니다.
비록 당신이 URL 파라미터사용 중이더라도. 그냥 확시한 건
우리는 여전히 당신의 페이지를 수집할 수 있다는 겁니다.
robots.txt를 접근불허할 수 없다는 겁니다.
또는 당신이 그것을 URL파라미터에
크롤되지 않도록 설정할 수 없다는 겁니다.
우리가 당신의 페이지를 수집할 때마다
우리는 페이지 레벨 마크업을 사용할 수 있습니다.
우리가 배경정보까지 포함하기 때문에
이런 기능을 가질 수 있는 URL의 종류에 대해 말해봅시다
여기 하나의 구글 스토어가 있습니다.
이것은 "범주= 오피스"로 되어있습니다.
다른 URL은 '범주=입는것', '범주=중간 입는 것'의
것으로 되어있습니다
기능으로 자격이 있습니다. 왜냐하면 그것들은
키 값이 복수이거나 이름 값이 복수로 오기 때문입니다.
"key equals value" 나
"key2 equals value2."의 경우에서
구글이 이런 파라미터를 보면 동등한 URL로 처리합니다.
왜냐하면 파라미터의 정리는
상관하지 않기 때문입니다.
이런기능의 자격없는 URL들은 키 가치 배열을 사용하지 않습니다.
그래서 한 사이트에 분리된 다른 파라미터를 사용합니다.
또는 그들은 디렉토리구조를 그냥 사용합니다.
또는 그들의 방식대로 된 대로 사용합니다.
이런 종류의 URL 어떤 것도 사용될 수 있습니다.
왜냐하면 이런 기능은 이름 값이 요구 되기 때문입니다.
맞습니다. 이것은 잘못된 소개인 것을 압니다.
하지만 이제 기능에 대해서 하려합니다.
하나는 페이지의 내용이 바뀌지 않는 것이
명확한 파라미터입니다. 당신 스스로 물어볼 수 있습니다
"페이지 내용에 영향을 주지 않는 파라미터를 내가 가지고 있나?" session ID, An affiliate ID,
Tracking ID. 이런 종류의 파라미터는 페이지 내용에 영향을 주지 않습니다.
우리는 거의 끝났습니다. 그러나 당신은 한 가지 의문스러울 것입니다.
"하나의 URL의 여러개의 파라미터는 어떤가?" 예를들면
저는 우리가 URL 파라미터의 많은 정보를 포함한다고 생각합니다. 이 링크로
더 많은 정보를 얻으실 수 있습니다. 감사합니다. 행복하세요.
Maile Ohye: Olá, sou Maile Ohye. Faço parte da equipe de suporte do Google para webmaster. E
gostaria de ajudá-los a compreender como utilizar o recurso de parâmetros URL nas ferramentas webmaster
Os parâmetros URL são um recurso razoavelmente avançado. Assim, as informações a seguir podem ser um tanto mais
complexas do que se poderia esperar. Antes de continuar a assistir a este vídeo, por favor, verifique
a página de parâmetros URL para ver se há ali uma mensagem do Google informando-lhe que já
temos rastreamento de alta cobertura de seu site. Se assim for, os ajustes para este
recurso não serão necessários. O teor da mensagem deve ser o seguinte: "No momento o Googlebot não apresenta problemas
com a cobertura de seu site. Portanto, os parâmetros URL não precisam ser configurados. A configuração incorreta
dos parâmetros pode ocasionar a exclusão das páginas de seu site de nosso índex. Por isso, não
recomendamos o uso dessa ferramenta, a não ser quando necessário.
Para aqueles que já possuem essa mensagem, está tudo certo. Não há necessidade de continuar a assistir a este vídeo.
Mas para aqueles que não a receberam, recomendamos que continuem a assistir.
Um dos principais pontos a considerar é que ações indevidas no recurso de parâmetros URL podem
fazer com que as páginas deixem de aparecer nas buscas. Reafirmo: o recurso é avançado.
As configurações nos parâmetros URL são utilizadas pelo Google como uma uma boa dica em nosso processo de rastreamento (crawling)
Para diretrizes mais potentes, pode-se usar algo como o disallow robots.txt
ou um meta noindex. Contudo, usar a dica de parâmetros URL é também muito útil.
Em 2010, a loja Google vendeu apenas 160 produtos. E isso parece tranquilo e relativamente
fácil de rastrear. Mas o fato é que a partir desses 160 produtos, foram efetivamente criadas 380.000
URLs. Essas URLs foram criadas por coisas como tipos diferentes de navegação. Então o Googlebot,
com referência ao rastreamento de seu site, não apenas olha e diz 200 URLs exclusivas. Na verdade
ele tem de determinar quais URLs rastrear, entre as 380.000 que foram criadas.
O Googlebot poderia se tornar mais eficiente no rastreamento se observasse estas duas URLs.
Bem, a primeira diz, " categoria igual You Tube." Vamos considerar essa URL para 20 itens exclusivos
na página. Mas na segunda URL, temos "categoria igual ao You Tube e tamanho igual a
médio." Então, são exatamente os mesmos itens, porém restritos agora a cinco em função
do parâmetro de "tamanho médio". Dessa forma então o Google poderia rastrear
apenas a primeira URL e alcançar todos os 20 itens em vez de rastrear ambas as URLs e ver
cinco itens redundantes.
Essencialmente, seu input nos parâmetros URL nos ajuda a entender seu site melhor.
E dessa forma podemos rastreá-lo de forma mais eficiente, sem gerar rastreamentos em duplicatas.
Isso poupará sua largura de banda (bandwidth) além de nos auxiliar a focar em seu conteúdo exclusivo em vez de
rastrear informações em duplicata repetidamente. No caso, contudo, de você desejar remover URLs
basta ir ao Removedor de URL, em Ferramentas, no Webmaster. Repetindo, o recurso de parâmetros URL se destina a rastrear
de forma mais efetiva. Não se aplica a remoções ou bloqueio explícito pelo robots.txt
Uma outra informação de base que desejo passar é que a marcação do nível da página
ainda é levada em consideração em conjunto com os parâmetros URL. Desse modo, se você possui uma marcação do nível
de página como rel "canonical", ou rel "next" "prev" ou rel "hreflang", não há problema e
pode também ser utilizada pelo Google mesmo que esteja utilizando parâmetros de URL. Apenas certifique-se
de que ainda conseguimos rastrear sua página, ou seja, certifique-se de que não há bloqueio pelo robots.txt ou
uma configuração para não rastreamento, nos parâmetros da URL. Enquanto podemos rastrear sua página, também podemos
usar a marcação do nível da página.
Explanadas as informações de base, vamos agora abordar os tipos de URLs
próprias para este recurso. Aqui está um da loja Google, o qual mostra "categoria igual
Buna! Sunt Maile Ohye. Sunt un membru al
echipei de suport webmaster Google. Si as
vrea sa va ajut sa intelegeti mai bine cum
sa folositi parametrii URL in
Webmaster Tools.
Parametrii URL sunt o optiune avansata.
Asa ca o parte din informatie poate fi mai
complexa decat ati crede. Inainte sa
continuati acest videoclip, verificati
pagina parametrilor URL sa vedeti daca are
un mesaj de la Google ce spune ca noi
credem ca avem un nivel inalt de acoperire
a indexarii siteului. Deci, nu e necesara
nicio ajustare la aceasta optiune. Mesajul
spune: "Googlebot nu are acum probleme
la indexarea siteului. Asa ca nu trebuie
sa configurati parametrii URL.Configurarea
incorecta poate duce la pierderea unor
pagini din index. Asa ca nu
recomandam sa folositi unealta decat daca
este necesar."
Pentru cei care au mesajul, sunteti gata.
Si nu e nevoie sa continuati vizionarea.
Dar pentru cei care nu il au, va rog
continuati. Si unul
din principalele efecte e ca actiuni
nepotrivite la parametrii URL pot
rezulta in pagini ce lipsesc in cautare.
Din nou, aceasta e o unealta avansata.
Setarile din parametrii URL sunt folosite
de Google ca sugestii in indexare.
Pentru instructiuni mai clare, folositi
chestii pe care le refuza robots.txt.
Sau meta noindex.Dar folosirea sugestiilor
parametrilor URL e totusi utila.
In 2010, magazinul Google a vandut doar
160 de produse. Si asta e ok si destul de
usor de indexat.Dar treaba e ca din aceste
160 de produse, au fost create 380,000
URLuri. Aceste URLuri au fost create de
chestii ca tipuri diferite de navigare. Si
Googlebot, in indexarea siteului, nu se
uita la, sa zicem, 200 de URL-uri unice.Ci
determina care URLuri sa le indexeze din
cele 380,000 create. Puteti vedea cum
Googlebot vrea sa fie mai eficient in
indexare prin verificarea acestor 2 URLuri
Acum, primul zice 'category = YouTube'.
Sa zicem ca URLul duce la 20 de itemi
unici de pe pagina. Dar pe al doilea URL,
e 'category = YouTube & size = medium".
Deci sunt exact aceleasi elemente.Dar acum
sa zicem ca filtrate la 5. Din cauza
parametrului"size = medium". In acest fel,
Google ar prefera sa indexeze primul URL
si sa ajunga la toti cei 20 de itemi, mai
degraba decat sa indexeze ambele URluri
si obtinand numai 5 itemi.
In esenta, inputul din parametrii URL,
ne ajuta sa iti intelegem siteul mai bine.
Ca sa il putem indexa mai eficient, adica
nu indexam asa multe duplicate.
Si asta va economisi viteza de transfer.Si
ajuta la centrarea pe continutul unic, mai
degraba decat informatie duplicata repetat
Dar daca vreti URLuri indepartate,
puteti merge la URL Removals in Webmaster
Tools. Iarasi, parametrii URL sunt pentru
indexare mai eficienta. Nu e despre
eliminarea sau refuzarea clara robots.txt.
O alta informatie de baza pe care vreau sa
o mentionez e ca marcatorul pagina-nivel
e luat in considerare in tandem cu
parametrii URL. Deci daca aveti marcatorul
pagina-nivel, ca rel='canonical' sau
rel='next'/'prev'/'hrefland', este ok si
se poate fi folosit de Google, chiar daca
folositi parametrii URL. Asigurati-va ca
putem sa indecam pagina voastra. Insemnand
ca nu e refuzat robots.txt. Sau nu ati
setat-o sa nu fie indexata in parametrii
URL. Atat timp cat putem indexa pagina,
putem folosi marcatorul pagina-nivel.
Acum ca am acoperit informatia de baza,
haideti sa vorbim despre tipurile de URL
ce sunt acceptabil pentru aceasta unealta.
Iata una din Google store. Spune
"category=office'. Alte URLuri ar fi
'category=wearables', 'category=wearables
& size=medium'. Aceste URLuri sunt
potrivite pentru optiune pentru ca
ele vin in perechi valoare+cheie sau
de nume+valoare. Cum arata e'key=value'
si apoi poate &. Si dupa 'key2=value2'.
Si Google, cand vedem acesti
parametri, va trata URLul ca echivalent al
acestui URL. Pentru ca ordonarea
in parametri nu conteaza.
URLurile nepotrivite pentru optiune sunt
cele care nu au configurarea cheie+valoare
Daca un site foloseste o serie de semne in
plus pentru separarea parametrilor, sau
doar o structura a registrului, sau
propriul tip de codificare. Niciun tip de
URL nu poate fi folosit, pentru ca aceasta
unealta cere perechi name+value.
Ok, stiu ca fost o introducere lunga, dar
sa incepem cu aceasta unealta. Pasul 1
este sa specificam parametrii care nu se
schimba in continutul paginii. Puteti sa
intrebati:'Am parametrii care nu schimba
continutul paginii?' Ca un ID de sedinta,
un ID de membru sau un tracking ID. Aceste
tipuri de parametrii nu schimba continutul
In aceasta unealta, le puteti marca 'does
not change content'.Odata setat, Webmaster
Tools va pune un URL reprezentativ ca
setare. Si Googlebot va actiona adecvat.
Odata ce pasul 1 e complet pentru toti
parametrii care nu schimba continutul,
atunci sa trecem la pasul 2, care are 2
parti. Prima parte e sa specificam
parametrii care schimba continutul paginii
Veti selecta "yes, this changes, reorders
or narrows page content'.Si puteti avea un
efect asupra continutului paginii, daca
sorteaza, limiteaza, specifica etc. Si vom
aprofunda mai mult. Apoi, urmeaza
pasul 2, care e specificarea functionarii
preferate pentru Googlebot. Avand acel
parametru, cum ati prefera ca Googlebot
sa indexeze acele URLuri. Si vom
vorbi mai mult si despre asta.
Primul parametru de care vorbesc e al
sortarii. Si vom acoperi asta.
E un parametru detul de complicat si setat
Parametrul sortarii e ceva de genul
'sort=price_ascending' sau
'rankBy=bestSelling'.Oricare dintre tipuri
care schimba ordinea continutului e
prezentat. Ele sunt parametrii de sortare.
Odata identificat un parametru de sortare
pe site, urmeaza sa specificam
functionarea preferata pentru Googlebot
pentru cand vede URLuri cu acest parametru
Acum asta e inselator. Am 2 scenarii aici.
Sa trecem prin primul.
Ati putea intreba "E parametrul de sortare
optional pe tot siteul meu?' Insemnand ca
parametrul de sortare nu e prezentat din
start. Ci doar cu selectare manuala.
Daca puteti raspunde 'da' la intrebare,
acel 'da e optional pe tot siteul meu.'
Atunci mergeti la intrebarea 2: "poate
Googleboot sa descopere totul util cand
parametrul de sortare nu e aparut?'. Adica
daca putem indexa itemii chiar daca nu e
prezent parametrul de sortare pe URLuri.
Daca raspunsul e 'da', atunci e probabil
ca la parametrul de sortare puteti
specifica 'nu indexa URLuri'.Odata aplicat
verificati URLurile de proba din Webmaster
Tools sunt, de fapt, neautorizate.
Asa ca sunt doar duplicate. Si ca URLurile
autorizate, URL-urile pe care le vrei
indexate, pot fi obtinute prin navigare
normala a utilizatorului.
Daca prima recomandare a parametrului de
sortare nu se aplica siteului,atunci poate
a doua recomandare, care este, daca
aceleasi valori de sortare sunt folosite
consecvent pe tot siteul. Intrebarile
care trebuie puse sunt "Sunt aceleasi
valori de sortare folosite pe tot siteul?"
Un exemplu negatic, unde un utilizator
ar spune "nu" daca esti un Webmaster care
vinde lucruri precum monede sau monede de
colectie.Pentru monedele tale, ai putea sa
ai "sort=year_issued". Dar nu se
aplica la vanzarea monedelor de colectie.
Asa ca nu e folosit adecvat.
Daca raspunsul primei intrebari e 'da',
atunci puteti sa va puneti a2a intrebare.
Care este: "Cand un utilizator schimba
valoarea de sortare, e numarul total de
itemi neschimbat?' Daca raspunsul e tot
'da',cu parametrul de sortare specificati
"only crawl URLs with value x", unde X e
una din valorile de sortare folosite.
Daca niciuna din recomandari nu se aplica
parametrului de sortare, atunci selectati
"Let Googlebot decide."
Al 2lea parametru pe care vreau sa-l
detaliez e parametrul "narrows", care
filtreaza continutul unei pagini prin
afisarea unui subset de itemi. Probabil
vedeti asta pe un site de e-comert, unde
in navigare, utilizatorul poate selecta
daca vrea doar iteme mai ieftine de 25$.
Sau de la 25 la 49.99. Toate sunt limitari
ale continutului din totalitatea itemilor.
Exemple cu parametrul "narrows" sunt
"size=medium". less_than=25' sau
'color=blue'. Daca parametrul "narrows"
arata mai putin utile. Arata continut care
e doar un subset din continutul unui URL
mai util, care nu include parametrul
"narrows". Apoi puteti sa specificati
"crawl no URLs". De exemplu, un URL util
e 'category=YouTube'. Si un URL mai putin
util e 'category=Youtube&size=medium'
Aici, as preciza 'size' ca pe un parametru
'narrows'. Si apoi pentru ca are mai putin
continut util, pot spune "crawl no URLs".
Dar inainte sa specific asta, e bine sa
verific unele lucruri. Intai, asigurati-va
ca parametrul 'narrows' nu va exclude
pagini utile pe care le vreti indexate in
sistemul de cautare. Asa ca pentru pagini
de brand sau categorii pe care vreti sa le
aratati userilor,asigurati-va ca selectati
'crawl no URLs', asa incat acele pagini nu
vor fi afectate. Apoi, verificati daca
URLurile care pot fi afisate in Webmaster
Tools sunt chiar URLuri care furnizeaza
continunt inutil, comparativ cu URLul
principal. Iarasi, vedeti continut precum
'category=YouTube&size=medium' si stiti ca
'size=medium' limiteaza parametrul
si nu e deloc util.
Daca functionarea "crawl no URLs' nu e
optima pentru site pentru ca afecteaza
prea multe pagini de brand sau categorie,
atunci lasati sa decida Googlebot.
Urmatorul parametru e "Specifies", care
determina continutul afisat pe pagina.
De exemplu, "itemid=android-t-shirt"
sau "sku=495", parametrul 'specifies' e
responsabil efectivpentru continut. Asa
ca veti selecta "crawl every URL". Dupa
"specifies" urmeaza "translates"
Daca vreti sa excludeti anumite limbi din
indexare si a fi disponibile in rezultatle
cautarii, precum traduceri automate. Daca
nu e cazul, selectati
"crawl every URL".
Ca o remarca, un obicei bun de mentionat,
si asta nu inseamna o necesitate,
este sa puneti continutul original tradus
nu intr-un parametru URL, dar intr-un
subfolder sau sub-registru. Motivul este
ca intr-un sub-registru sau sub-folder,
ajuta Google sa inteleaga mai bine
structura siteului. Si asta se aplica
continutului tradus sau regional.
Ultimul parametru e "Paginates", care
afiseaza o pagina componenta dintr-o
secventa. Exemple sunt "page=3"
"viewitems=10-30" sau "start-index=20"
Cu paginatii, pentru ca vrei ca sa fie
fiecare pagina sa ajunga la itemi,
e aproape mereu "crawl every URL".
Felicitari! Ai mers pana la capat cu
discutia despre diferiti parametrii
si functionare dorita a Googlebotului, Si
acum puteti merge la site si sa repetati
acest process pentru diferiti parametrii
pe care ii aveti.Nu trebuie sa faceti asta
pentru fiecare parametru, Dar includeti
cativa si specificati functionarea corecta
pentru ca Googlebot sa ajute
cu indexarea.
Suntem aproape gata. Dar puteti sa puneti
o ultima intrebare: "Cum ramane cu
parametrii multipli intr-un singur URL?"
De exemplu "sku=234page=3&sortBy=price
&sortOrder=lowToHigh" Cum functioneaza
parametrii URL cand sunt setati parametrii
multipli? Raspunsul e sa ne amintim ca
parametrii URL sunt despre indexare buna.
Deci puteti sa va imaginati ca toate
URLurile stiute sunt pentru siteul dvs.Asa
ca daca sunteti Google store, toate 380000
URLuri sunt adecvate de indexare.Si lucram
ca un proces de eliminare, nu cuprindere.
Deci luam continutul siteului, combinat cu
toate setarile parametrilor URL pentru a
elimina URLurile ce trebuie eliminate.
Pana la final, avem un subset ma mic de
URLuri bune.
Pe scurt, daca sunteti mai confortabili cu
parametrii URL, va rog utilizati aceasta
unealta pentru indexare mai eficienta.
Puteti incepe cu specificarea parametrilor
care nu schimba continutul paginii. Acelea
ar trebui sa fie mai usor de facut. Apoi,
urmatorul pas e specificarea parametrilor
care schimba continutuli. Si nu uitati,
daca nu puteti determina, nu ghiciti.
Lasati "let Googlebot decide".
Inca o data, parmetrii de sortare pentru
siteul dvs nu exista intr-un URL din start
atunci "crawl no URLs". Saudaca e pe tot
siteul, aceeasi valoare de sortre e mereu
folosita, atunci 'crawl URLs with value x'
Pentru "Narrows"- daca parametrul cauzeaza
limitari de cautare inutile, precum marime
sau pret, puteti selecta "crawl no URLs'.
Asigurati-va ca verificati pentru ca nicio
pagina importanta sa nu fie afectata.
Pentru "specifies" e de obicei "crawl
every URL",si se aplica si la "translates"
si "paginates",
Yay! Cred ca am acoperit multa informatie
despre parametrii URL. Iata linkuri catre
mai multe resurse daca aveti nevoie de mai
mult ajutor.
Multumesc si succes!
>>Maile Ohye: สวัสดีค่ะ, ดิฉัน ไมลี่ โอห์เย ดิฉันเป็นหนึ่งในสมาชิกของทีมงานฝ่ายบริการลูกค้าสำหรับ Google's Webmaster
และดิฉันอยากจะช่วยให้คุณเข้าใจในวิธีการใช้คุณสมบัติของ พารามิเตอร์ สำหรับ URL
ซึ่งอยู่ในส่วนของเครื่องมือสำหรับเว็บมาสเตอร์ได้ดียิ่งขึ้น
พารามิเตอร์สำหรับ URL เป็นคุณสมบัติขั้นสูง ดังนั้นข้อมูลบางส่วนนี้
อาจมีความซับซ้อนกว่าที่คิด
ดังนั้นก่อนที่คุณจะชมคลิปวีดีโอนี้ต่อไป กรุณาตรวจสอบ
หน้ารายละเอียดของ พารามิเตอร์ URL เพื่อดูว่าคุณมีข้อความจาก Google ที่จะอธิบายให้คุณได้ทราบว่า
เราเชื่อมั่นว่าเรามี
嗨,大家好,我叫Malie Ohye,我是谷歌网页能手队伍里的其中一员
我很愿意帮助你更好的理解如何在网页中使用URL参数
这个网页工具。
网址参数是一个非常先进的功能。所以有些信息
可能会比你想象中的复杂。在你继续观看这个视频之前,
请点击你的网址参数页面来看你是否有谷歌发给你的邮件,
这封邮件回向你解释因为谷歌在你的网页上有高覆盖率,因为我们不需要对这个功能做调整。
这封邮件会说“ 因为现在谷歌还没有体验过
你的网页的高覆盖率,所以你不需要安装网址参数。
不正确的参数会影响你的主页脱离了我们的指数。
所以我们建议你必要的时候使用这个道具。”
如果你收到这样类似的邮件,那说明你的系统是没有问题的,所以你就不需要继续观看这个视频了。
但是如果你没有收到类似的邮件,请继续收看我们的视频。
很重要的一点是在网址上任何不正确的步骤
在主页上都不会出现。像我之前说的,这是一个很先进的技术。
在网址参数上的设置是谷歌用来作为我们操作程序中很重要的一个提示
对于更重要的指示来说,你想用像robots.txt的东西来阻止。
或者一个更换的noindex。不过使用网址参数提示还是很有帮助的。
在2010年,谷歌商店只卖出了160件商品,这个看起来很不错并且很容易坚持。
但是事情是这样的,在这些160左右间的商品里,它其实创造了URL。
不一样的上网方式创造了不一样的网址。
所以如果我们按照采集你的网页来说的话,
我们不能只看说,哎,200多个不一样的网址呢,
我们需要决定哪一个网址采集了那380000多个。
你可以看到的是Googlebot 想通过这两个网址更有效的采集。
现在,第一个网址是关于“分类等于优酷”, 比方说那个网址是20个不一样的网页的网址,
但是在第二个网址是“分类等于优酷并且是中号”
所以两个东西是完全一样的。但是现在打比方说,过滤到五,
变成“尺寸等于中号”参数,所以这样谷歌会
宁愿只用第一个网址并且获得所有20个东西的信息,也不同时采集两个网址
和多余的5样东西。
最主要的是,你投入到网址参数里的信息会帮助我们理解你的网页。
所以我们可以更有效的采集信息,因为我们能更有效的采集信息
所以这个会帮助你节省你的宽带并且可以帮助我们更高的注意到你的网页的内容,
而部署不断的采集重复的信息。
但是如果你想要网址的话,你可以在网站能手里找到网址移除。就像我们之前说过的,这种网址参数
是非常有效率的,他不是跟删除和详述robots.txt一样。
另外一个我想提到的背景信息是页级
照样会纳入到网址参数的考虑范围之内,所以如果你有页级标记,
比方说rel,“caninicl" 或者是rel, "next","prev",或者rel,"hreflang",
这也没有关系,它还是照样可以被谷歌使用。即使你在使用网址参数,
只是需要确保我们可以采集你的页面,意思就是说他不是robots.txt不允许
或者你在网址参数里设置成不可采集,只要我们可以采集你的网页
那我们就可以继续使用页级标记。
既然我们包含到了所有的背景信息,让我们来讲一下不同种类的网址。
这有一个谷歌商店里的网址,他是关于“分类等于办公室”
其他的网址是像"分类等于可佩戴的”
或者“等于可佩戴的并且尺寸等于中号“这些网址是有效的
它们是名字有效的,看起来像是
重点等于并且也许是一个并且的符号”然后就是“重点2等于价值2”
这样谷歌看到这些参数就对平等的对待这两个网址
因为在网址里面的东西不大有关系。
那些没有效的网址是那些不用主要价值配备的。
所以如果一个网址用很多加号来分隔开它的参数,或者
它们有一个字典结构,或者他们用他们自己的编码
那么这些网址都不能用,因为这个网址功能要求有效的一对名字。
好了,我知道我给了大家很多信息,所以现在我们可以讲它的功能特性了。
第一步是确保参数不改变网页的内容。那么你就会了
“我的参数会影响到我网页的内容么?”像那种会话证件号。
一个证件号,或者一个跟踪证件号。这类型的参数是不会改变网页内容的。
并你可以之间标记它们为“不改变内容” 如果你一旦说了,
工具会把其中一个参数网址当作设置
然后googlebot会完成那些所有不改变网页内容
现在让我们进行第二部,第二部包括两个部分。第一个部分是
确保参数可以改变网页内容,所以你会选。“ 是的,这个会改变,重新调整网页内容。”
然后你就可以有一种王爷内容得效果。
不管这个缩小,详细,附加。我们会玩些涉及到这个。
接下来第二步2B是相信googlebot的行为。所以提供这个参数,
所以你要怎么样采集那些网址。
我们也会过会再设计到这个
(背景音乐)
第一个我想涉及到的网址是排序网址,我们会先讲这个。
但是这是一个较复杂的参数和设定。排序网站
是像“排序等于升值”或者“按畅销量排名”任何这种参数
是能改变内容的。
你可以在设置里分辨一个排序参数或者多个排序参数,下一步是
去区分当他们看到网址时googlebot喜欢什么行为。
这步是它开始变男的部分,所以我们要分开两个部分讲,
让我们先讲第一个,你可能会问“参数这个选项会一直在我们整个网页里吗?”
排序参数是永远不会是错的。但是如果你用的时手动的话
如果你可以回答“是”来回答“是,这是我整个设置里的一个选项。”这个问题
接下开是第二个问题,“当排序参数不出现的话googlebot还可以找到有用的信息吗?
意思就是即使他们不在网址上我们也可以采集你的所有东西。
如果答案是“是”并且第一个的问题的答案也是“是”
那么很有可能你可以设置你的排序参数“不要采集网址”。
只要你有这个设置,请确认再网页能手工具里展示的网页网址的样本不是依教规的。
所以它们只是复制版。并且那个依教版的网页网址,那个你特别想要爬行喝编入索引中的网址
可以被普通得使用着用到。
如果第一个排序参数的推荐不适合你的网页的话,那么希望第二个推荐能适用。
第二个推荐是,如果我们一直使用的是一样的排序
那么有一个问题是可以你自己问自己的,
“我的整个网页都是在使用一个同样的排序么?” 给大家举一个反例子,
这个反例子是使用者会说“不是”是如果你是一个网页能手拼写的东西像硬币和硬币收集册
所以对于你的硬币来说,你应该有“排序相等”和价值“操作年份”,但是
“排序平等操作年份”不适合你硬币收藏册的拼写,所以他不是一直持续使用的。
如果第一个问题的答案是“是”的话,那么你就可以问你自己第二个问题。
那就是“如果一个使用者改变了排序价值,那么所有的商品不会变么?”
这个的答案也是“是”那么很有可能你的排序参数你可以详细标明
“只采集有X价值的网站”X是被用在网页里排序价值中的一个。”
如果这所有的建议都不适合你的排序参数的话,那么应该
“就让谷歌决定吧”
第二个我想讲的参数是“狭窄”参数。
通过子集所有的内容来“狭窄”整个网页的内容,所以你也许会看到
在一个电子商务网页上,在浏览网页的时候使用者可以选择
比如说小于25美金的商品,或者是25美金到49.99美金的商品,
所有的这些都缩小了所有商品的内容。
嗨,我是瑪莉.歐葉(Maile Ohye),我是Google網站管理員支援團隊的成員,
而我要幫助你了解URL參數這項功能
URL參數是一個進階的功能,
所以這功能可能會比你想得更複雜一點,在你繼續觀看影片前,
請造訪URL參數頁面,看看您是否有收到Google的訊息
告訴你,我們深信Google已經完整探索過您的網站,所以不需要調整任何東西了
訊息會說:現在Googlebot在探索您網站時並沒有遭到任何困難
所以你不需要重新設置URL參數,錯誤的設定會讓你的網站從搜尋結果被排除掉
所以除非必要,我們不建議您使用這項功能。
如果你有看到這樣的訊息,你可以走了,不用觀看影片了
如果你沒收到這樣的訊息,繼續看下去
要記得,在URL參數上錯誤的操作可能會導致
在搜尋結果再也找不到你的網站,再次強調,這是一項進階功能
Google檢索您網站時,會把URL參數的設置視為相當重要的暗示,暗示跟指示是不同的
強烈的指示像是,如果你不想要被檢索到,使用robots.txt或是用meta noindex禁止Googlebot造訪
但URL參數做暗示依然是非常有幫助的
在2010年 Google商店只有販賣約160項商品,看起來似乎非常容易收錄進索引
但其實這160項商品 卻創造出38萬條以上的網址
而這些網址被不同的導覽列所創造出來,
因此Googlebot在爬行你的網站時 不是只是看一看,說喔,200個不同的網址,
而是在380,000個網址中選出要收錄的頁面
請看看下面兩個案例,你可以看到Googlebot想要更有效率的收錄頁面,
第一個案例說:「分類等於Youtube」,讓我們假設URL連到頁面20個不同的項目
但是第二個URL卻是分類等於Youtube而尺寸等於M
所以它是同一樣東西,但現在被過濾到剩下五個
因為「尺寸=M」參數,所以這樣Google會只選擇
第一個URL,接觸全部20個項目,而不會爬行兩個網址
然後去重複五個項目
最重要的就是,當你把URL參數設置好,它會讓你更加了解你的網站
所以機器人可以爬行的更加有效率,而不重複
所以會節省你的頻寬,並讓我們專注於您的不重複內容
而不是讓機器人不斷在爬行相同的內容。
但如果你希望URLs被移除,你可以去網站管理員工具中的URL Removals,再次強調,
URL參數是為了提升爬行效率,它不是用來禁止爬行的指示
還有一個重點我要講的是,